Новости Статьи Российское ПО VMware Veeam StarWind vStack Microsoft Citrix Symantec События Релизы Видео Контакты Авторы RSS
Виртуализация и виртуальные машины

Все самое нужное о виртуализации и облаках

Более 6490 заметок о VMware, AWS, Azure, Veeam, Kubernetes и других

VM Guru | Ссылка дня: Полный список лабораторных работ VMware Hands-on Labs

Отчет Principled Technologies - VMware vSphere производительнее, чем RedHat Enterprise Virtualization.


На днях вышел интересный отчет компании Principled Technologies, специализирующейся, в том числе, на всякого рода тестировании аппаратно-программных сред. В документе "VMware vSphere memory overcommitment delivered greater VM density than Red Hat Virtualization" рассказывается о том, что на одном и том же оборудовании с помощью гипервизора ESXi можно запустить больше виртуальных машин, чем на гипервизоре KVM платформы RHEV.

Понятное дело, что исследование ангажированное (хотя бы, если посмотреть на заголовок), но поскольку таких документов не так много, мы решили обратить на него внимание.

Для тестирования использовался стоечный сервер Lenovo x3650 M5, на котором в виртуальных машинах работала СУБД Microsoft SQL Server 2016 с нагрузкой типа OLTP. В качестве основного показателя производительности использовался OPM (orders per minute), отображающий количественную оценку исполненных транзакций.

Если не использовать техники Memory Overcommit, то результат выполнения на 15 виртуальных машинах одного хоста в числе OPM примерно одинаковый на обоих гипервизорах:

А вот когда происходит увеличение числа виртуальных машин, то vSphere показывает себя значительно лучше:

Крестиками отмечены машины, которые на RHV просто не запустились, консоль продукта выдала вот такую ошибку:

Несмотря на включение техник оптимизации памяти в Red Hat Virtualization Manager (RHV-M), таких как memory ballooning и kernel shared memory, шестнадцатая виртуальная машина все равно отказывалась запускаться на KVM:

Ну а на vSphere продолжали наращивать число ВМ, пока не уперлись в недостаток ресурсов:

Получилось, что с техниками overcommit на vSphere получилось запустить 24 виртуальных машины, а на RHV - всего 15 штук. По итогу сделали вывод, что на VMware vSphere в 1,6 раза можно запустить больше виртуальных машин:

Не сказать, что это объективное тестирование, но очевидно, что ESXi в данном случае работает лучше KVM с точки зрения всяких оптимизаций памяти и прочих ресурсов ВМ.


Таги: VMware, Red Hat, Performance, RHV, vSphere, ESXi, KVM

Вышел VMware vSphere 6.5 Update 1 - новые возможности.


Спустя почти 9 месяцев с момента выпуска платформы VMware vSphere 6.5, компания VMware анонсировала первый пакет ее обновления - VMware vSphere 6.5 Update 1. Но в таком долгом сроке обновления есть и большой плюс - ведь наверняка на этот раз QA-отдел VMware успел хорошо проверить новый релиз, поэтому критических багов после обновления вылезти не должно (их, кстати, согласно списку Release Notes было немало исправлено). Тем не менее, как обычно мы советуем вам подождать недельку другую перед обновлением на новую версию:)

Давайте посмотрим, что нового появилось в VMware vSphere 6.5 Update 1:

1. vSphere Client теперь поддерживает 90% рабочих процессов.

Последний релиз vSphere Client на базе технологии HTML5 поддерживает практически все рабочие процессы, за исключением некоторых нечасто используемых операций. Совсем немного осталось до стопроцентного покрытия (хотя нам это говорили уже несколько месяцев назад). Надо отметить, что теперь полностью поддерживаются операции с Virtual Distributed Switch (VDS).

2. vCenter Server Foundation теперь поддерживает 4 хоста ESXi вместо трех.

Это сделано по просьбам клиентов, имеющих небольшую инфраструктуру и требующих одну лицензию на vCenter на четное число хостов.

3. Расширенная поддержка сторонних компонентов.

VMware поработала с основными партнерами, решения которых дополняют инфраструктуру vSphere, и выработала подход, который позволит избежать проблем совместимости различных версий платформы в будущем с такими компонентами, как Security Key Management, Proactive HA и т.п.

4. Расширенная поддержка vSphere 6.5 General Support.

VMware решила расширить поддержку платформы vSphere 6.5 до 5 лет, что означает, что она закончится 15 ноября 2021 года.

5. Апгрейд на vSphere 6.5 U1 c vSphere 6.0 U3.

VMware полностью поддерживает рабочий процесс обновления последней версии vSphere 6.0 U3 предыдущего поколения на актуальную версию vSphere 6.5 Update 1. То есть, теперь нет необходимости промежуточного обновления на vSphere 6.5.

6. Обновления драйверов.

Следующие драйвера устройств были обновлены в составе гипервизора ESXi 6.5 Update 1:

  • Cavium qlnativefc driver
  • VMware nvme driver
  • Intel i40en driver with Lewisburg 10G NIC Support
  • Intel ne1000 driver with Lewisburg 1G NIC Support
  • Intel igbn driver
  • Intel ixgben driver
  • Broadcom ntg3 driver

7. Улучшения максимумов vCenter.

Теперь у vCenter следующие максимально поддерживаемые параметры (vSphere Domains - это SSO-домены):

  • Maximum vCenter Servers per vSphere Domain: 15 (было 10)
  • Maximum ESXi Hosts per vSphere Domain: 5000 (было 4000)
  • Maximum Powered On VMs per vSphere Domain: 50,000 (было 30,000)
  • Maximum Registered VMs per vSphere Domain: 70,000 (было 50,000)

8. Другие улучшения vCenter.

  • Интерфейс установщика vCenter Server Appliance (vCSA) доступен для Microsoft Windows 2012 x64, Microsoft Windows 2012 R2 x64, Microsoft Windows 2016 x64 и macOS Sierra.
  • TcServer заменен на Tomcat 8.5.8.
  • Поддержка кастомизации гостевой ОС Ubuntu 17.04.
  • Возможность использования vSphere Update Manager для обновления кластеров vSAN 6.6.1.

  • Поддержка внешних СУБД Microsoft SQL Server 2016, Microsoft SQL Server 2016 SP1 и Microsoft SQL Server 2014 SP2.

Кстати, это последний релиз который поддерживает сторонние виртуальные распределенные коммутаторы, такие как IBM DVS 5000v, HPE 5900v или Cisco Nexus 1000v. В следующем релизе их больше нельзя будет использовать, поэтому осваивайте vDS от VMware. Более подробная информация об этом приведена в KB 2149722.

Скачать VMware vSphere 6.5 Update 1 можно по этой ссылке. Ну и еще несколько полезных ссылок для продуктов, которые были обновлены одновременно с основной платформой:


Таги: VMware, vSphere, Update, ESXi, vCenter

Новый документ "Performance Best Practices for VMware vSphere 6.5".


Компания VMware выпустила долгожданный документ, раскрывающий основные аспекты лучших практик для своей серверной платформы виртуализации в плане производительности - "Performance Best Practices for VMware vSphere 6.5".

В документе более 100 страниц, и он раскрывает практически все аспекты управления виртуальной инфраструктурой и работой виртуальных машин на хост-серверах VMware ESXi.

Вот какие вопросы позволяет решить прочтение данного документа:

  • Подбор необходимого оборудования в качестве хостов для виртуальных машин и управляющих серверов.
  • Настройка серверов ESXi и виртуальных машин на них в целях оптимизации производительности.
  • Применение рекомендаций по конфигурации различных гостевых операционных систем, работающих в ВМ.
  • Настройка всех компонентов инфраструктуры управления платформой vSphere. Это самый интересный пункт, из которого можно узнать лучшие практики по работе с DRS, HA, Fault Tolerance, vSAN и многими другими продуктами и технологиями VMware.

Это, кстати, один из важных документов при подготовке к экзамену на VMware Certified Professional. Ну а для администраторов больших инфраструктур этот документ просто обязательных к изучению, так как совсем небольшая оптимизация на стороне хост-сервера или ВМ может дать очень большой эффект для инфраструктуры в целом.


Таги: VMware, Performance, Whitepaper

Вышла новая версия клиента VMware vSphere Client 3.17.


На днях компания VMware выпустила очередное обновление главного клиента для управления виртуальной инфраструктурой - VMware vSphere Client 3.17. Напомним, что этот клиент на базе технологии HTML5 скоро заменит собой устаревший vSphere Web Client. О прошлой версии vSphere Client 3.16, которая вышла пару недель назад, мы писали вот тут.

Давайте взглянем на новые возможности VMware vSphere Client 3.17:

  • Функции создания новой политики хранения ВМ (VM Storage Policy). Пока в рамках данной версии клиента можно делать следующие вещи:
    • Миграция Host Networking на распределенный коммуатор Distributed Switch.
    • Настроить адрес шлюза на адаптерах VMkernel (только в ESXi 6.5).
    • Поддержка механизма управления трафиком Network I/O Control v3.
    • Настройки опций аппаратного обеспечения при клонировании ВМ или развертывании ее из шаблона.
    • Создание политик хранения для томов VVol.
  • Также были сделаны следующие улучшения:
    • Оповещение при изменении настроек ВМ или операциях со снапшотами, что машина управляется данным клиентом.
    • Предупреждение, если свободного места на датасторе осталось меньше, чем размер файла, который пользователь пытается залить на датастор.

Скачать тонкий клиент VMware vSphere Client 3.17 можно по этой ссылке.


Таги: VMware, vSphere, Client, Update, Labs

Новый документ "VMware Horizon Apps Performance Reference Architecture".


Не так давно мы писали про документ "RDSH Session Load-Balancing in Horizon 6 and Horizon 7", в котором рассматриваются вопросы балансировки нагрузки на ферму серверов RDSH, в рамках которой работают терминальные приложения и сессии пользователей.

Ну а на днях VMware выпустила на тему RDSH не менее интересный документ "VMware Horizon Apps Performance Reference Architecture", раскрывающий вопросы производительности большой инфраструктуры доставки приложений и терминальных сессий.

Для тестов была взята некая референсная архитектура решения, работающая на базе технологии App Volumes с пулами наиболее используемых приложений, и рассмотрены различные варианты отработки виртуальной инфраструктурой нагрузок в гостевых системах. Сами виртуальные десктопы создавались посредством технологии Instant Clone.

Вот такая архитектура рассматривалась при тестировании:

А так были распределены рабочие нагрузки по хост-серверам VMware ESXi:

Результаты рассматривали в пяти аспектах:

1. Производительность работы пользователей (User-Experience Performance Results).

Время отклика при росте количества одновременных сессий всегда находилось в норме и росло линейно:

2. Пиковые нагрузке при массовой загрузке десктопов (Boot Storms).

Хосты отрабатывали нагрузки Boot Storms на 70% загрузках мощности, после чего нормализовывали текущий уровень:

3. Производительность работы хост-серверов (Host Performance Results).

Хосты RDSH отрабатывали хорошо:

А хосты обслуживания инфраструктуры vSphere и Horizon еще лучше:

4. Производительность виртуальных машин (Virtual Machine Performance Results).

Машины в среднем не были загружены по ресурсам в пике более чем на 50%:

5. Производительность подсистемы хранения (Storage Performance Results).

Виртуальные машины RDSH выдавали вполне приемлемые показатели производительности хранилищ:

На самом деле, документ содержит десятки интересных графиков, таблиц и инсайтов. Очень рекомендуется к прочтению тем, кто планирует у себя развертывание инфраструктуры виртуализованных приложений и терминальных серверов RDSH.


Таги: VMware, Horizon, Performance, RDSH, VDI, Whitepaper

Вышли превью версии VMware Workstation 2017 и VMware Fusion 2017.


На днях компания VMware выпустила превью версии своих настольных платформ виртуализации VMware Workstation 2017 и VMware Fusion 2017. С момента релиза прошлых версий Workstation и Fusion прошло уже 10 месяцев, и это одни из самых ожидаемых релизов этого лета.

VMware Workstation 2017

Давайте посмотрим на новые возможности VMware Workstation Tech Preview 2017:

1. Поддержка новых ОС.

Последняя система семейства Windows 10 поддерживается VMware Workstation как гостевая и хостовая ОС. Также поддерживаются и другие новые ОС, такие как Ubuntu 17.04 и Fedora 26.

2. Механизм Guest VBS.

Теперь поддерживается технология VBS (Virtualization Based Security), которая доступна для ОС Windows 10 и Windows Server 2016. Также ожидается расширение этой поддержки к финальному релизу.

3. Технология Secure Boot.

Об этой возможности для VMware vSphere мы уже писали. Теперь функции безопасной загрузки адаптированы и для настольных платформ.

4. Поддержка Virtual NVMe.

Workstation позволяет использовать преимущества контроллера NVM Express (NVMe), который также поддерживается и в ESXi 6.5.

5. Переименование виртуальных сетей.

Теперь виртуальные сетевые адаптеры можно переименовывать в Virtual Network Editor. Эта функция доступна только для ОС Windows.

6. Функции управления vSphere/ESXi Host Power Operation.

Из VMware Workstation можно управлять хост-серверами VMware ESXi и сервером vCenter. Теперь эти возможности включают в себя операции с питанием (перезагрузка и выключение хостов), а также вход и выход из режима обслуживания (maintenance mode).

7. Импорт VCSA.

С помощью встроенного мастера теперь можно импортировать виртуальный модуль VMware vCenter Server Appliance, который позволяет управлять витуальной инфраструктурой VMware vSphere.

8. Функция Network Latency Simulation и Packet Loss.

С помощью расширенных настроек Network Adapter Advanced Settings можно симулировать поведение реальной сети с задержками в канале и потерей пакетов, что очень удобно для целей разработки и тестирования.

9. Отображение IP-адреса в консоли ВМ.

Теперь IP-адрес и MAC видно прямо в консоли ВМ, поэтому нет нужды логиниться в гостевую ОС.

10. Функция автоочистки дискового пространства.

Это очень полезная вещь, которая позволяет автоматически возвращать дисковое пространство в хостовую ОС при выключении ВМ. Для этого в расширенных настройках есть функция "Clean up disks after shutting down this virtual machine". Доступна эта возможность только в хостовой ОС Windows.

11. Сканирование на предмет наличия ВМ на дисках.

Если у вас есть виртуальные машины, которые отсутствуют в библиотеке, можно включить функцию сканирования и найти их, например, на флешке.

12. Приостановка Shared VMs при выключении хостовой ОС.

Если вы выключаете хостовую ОС или перезагружаете ее, то общие машины (Shared VMs) будут приостановлены (выведены в Suspend).

13. Интерфейс на основе GTK+ 3 UI для Linux.

Это не только улучшает интерфейс Linux-версии, но и позволяет поддерживать еще большее число хостовых операционных систем.

Загрузить VMware Workstation Tech Preview 2017 можно по этой ссылке. Главная страница доступа к бете находится здесь, а документация доступна тут.

VMware Fusion 2017

Также, как уже говорилось выше, вышла и обновленная версия технологического превью VMware Fusion Tech Preview 2017.

Посмотрим на новые возможности этой платформы виртуализации для Mac OS:

1. Улучшенный интерфейс.

В плане интерфейса было сделано много улучшений. Например, была добавлена панель "Information" для каждой ВМ в библиотеке, в которой видно IP-адрес, MAC-адрес и версию гостевой ОС. Кроме того, был полностью переработан мастер создания новой ВМ, который дает больше контроля над этим процессом.

2. Полностью переработанный Fusion REST API.

Теперь Fusion предоставляет интерфейс RESTful API на основе Swagger, который позволяет управлять inventory для ВМ, питанием, клонированием, сетевыми настройками, конфигурацией общих папок, получением адресов и т.п. Из документа "Getting Started with VMware Fusion REST API" можно получить более полную информацию об этой возможности.

3. Поддержка библиотеки Metal Graphics на хосте.

Вместо OpenGL компания Apple вводит библиотеку Metal, которая поддерживается со стороны Fusion. Это позволяет с меньшими энергозатратами рендерить 3D-графику. Также всегда есть возможность отключить поддержку Metal и вернуться на OpenGL.

4. Поддержка тачбаров новых макбуков.

Новые MacBook Pro с тачбарами теперь совместимы с Fusion. Их можно использовать для управления виртуальными машинами.

5. Улучшенное управление сетью.

С помощью расширенных настроек Network Adapter Advanced Settings можно симулировать поведение реальной сети с задержками в канале, что очень удобно для целей разработки и тестирования. Также виртуальные сетевые адаптеры можно переименовывать Virtual Network Editor. Кроме этого, появилось удобное управление правилами NAT.

6. Ручная установка разрешения из хостовой ОС.

Теперь не нужно выставлять разрешение в гостевой ОС (Retina или обычное). Это можно сделать из меню View.

7. Функции управления vSphere/ESXi Host Power Operation.

Из VMware Fusion можно управлять хост-серверами VMware ESXi и сервером vCenter. Теперь эти возможности включают в себя операции с питанием (перезагрузка и выключение хостов), а также вход и выход из режима обслуживания (maintenance mode).

8. Поддержка Guest VBS и Secure Boot.

Теперь поддерживается технология VBS (Virtualization Based Security), которая доступна для ОС Windows 10 и Windows Server 2016. Также ожидается расширение этой поддержки к релизу. Ну а о возможности Secure Boot для VMware vSphere мы уже писали. Теперь функции безопасной загрузки адаптированы и для настольных платформ.

9. Интеграция с VMware PhotonOS.

Теперь поддерживается механизм контейнеризации Docker, а также средство Kubernetes для запуска контейнеров.

10. Обновленная утилита vmrun.

VMware расширила возможности этой утилиты за счет добавления функций управления для VM NIC, форвардинга портов и скачивания шаблона Photon OS.

11. Функция автоочистки дискового пространства.

Это очень полезная вещь, которая позволяет автоматически возвращать дисковое пространство в хостовую ОС при выключении ВМ. Для этого в расширенных настройках есть функция "Clean up disks after shutting down this virtual machine".

12. Сканирование на предмет наличия ВМ в библиотеке.

Если у вас есть виртуальные машины, которые отсутствуют в библиотеке, можно просто положить их в папку ~/Virtual Machines, и они появятся в библиотеке.

Загрузить VMware Fusion Tech Preview 2017 можно по этой ссылке. Главная страница доступа к бете находится здесь, а документация доступна тут.


Таги: VMware, Workstation, Fusion, Update, Beta

Вышла бета-версия NAKIVO Backup & Replication 7.2 - новые возможности.


Не так давно мы писали об интересном продукте NAKIVO Backup & Replication. Это решение предоставляет не только бэкап ВМ, но и такие Enteprise-возможности, как качественная дедупликация, 4 вида проверки резервных копий, возможность ставить продукт непосредственно на NAS, модуль Linux virtual appliance и многое другое - и все это по доступной цене. Сегодня вышла бета-версия NAKIVO Backup & Replication 7.2, в которой есть немало новых возможностей заслуживающих внимания. Посмотрим, что нового сделали в этой версии...


Таги: Nakivo, Backup, Beta, Update, Replication

Новое на VMware Labs - утилита DRS Lens для более глубокого понимания механизма балансировки нагрузки.


На сайте проекта VMware Labs появилась очередная заслуживающая внимания утилита DRS Lens, поставляемая в виде виртуального модуля (Virtual Appliance). Она позволяет администраторам виртуальных инфраструктур получить больше информации о работе механизма балансировки нагрузки на хост-серверы VMware vSphere DRS.

Полученная информация располагается на 5 дэшбордах, которые дают представление о различных аспектах DRS.

Summary

Это вкладка с общей информацией. Тут агрегируются данные с других разделов в удобное представление для администратора.

Cluster Balance

Здесь размещен график, показывающий отклонения метрики баланса кластера во временном промежутке, в котором работает DRS. Тут можно определить точки, в которых DRS реагирует на дисбаланс в кластере и перемещает виртуальные машины между хостами.

VM Happiness

На этом дэшборде впервые можно увидеть метрику VM happiness в графическом интерфейсе. Здесь представлена диаграмма, показывающая число ВМ, которые "счастливы" в кластере (то есть работают под нормальной нагрузкой) и число тех, которые "несчастны" (работают в стрессовых условиях при недостатке ресурсов). Пользователь может выбирать отдельные ВМ для просмотра метрик производительности, которые влияют на VM happiness, такие как %CPU ready, memory swapped и т.п.

vMotions

Этот дэшборд предоставляет суммаризованную информацию о миграциях vMotion, которые происходили в кластере по инициативе DRS или пользователя. Для каждого временного периода можно посмотреть разбивку миграций по каждому из этих двух видов. Это не только позволяет наблюдать за количественными показателями работы DRS в миграциях, но и оценить, не делают ли администраторы слишком много миграций vMotion, что влияет на баланс кластера.

Operations

На этом дэшборде можно отслеживать различные операции (задачи на стороне vCenter Server), которые выполнялись с течением времени. Администраторы могут сопоставлять информацию о задачах с этого дэшборда с данными других вкладок.

Все эти вещи позволят более детально ответить на вопрос - а что же именно и когда механизм DRS делает с виртуальными машинами при перемещении между хост-серверами ESXi.

Скачать VMware DRS Lens можно по этой ссылке. После развертывания виртуального модуля утилитой можно пользоваться по следующим адресам:

https://<appliance-ip>/drs/app

http://<appliance-ip>:8080/drs/app


Таги: VMware, Labs, DRS, vSphere, VMachines, Virtual Appliance

Вторая версия Microsoft Azure Backup Server (MABS) с поддержкой VMware vSphere 6.5 и Windows Server 2016.


Возможно не все из вас знают, что у компании Microsoft есть продукт Microsoft Azure Backup Server (MABS), являющийся "облачным наследником" средства резервного копирования Microsoft Data Protection Manager (MABS построен на его базе).

MABS предназначен для резервного копирования онпремизных и облачных нагрузок (IaaS) в виртуальных машинах, как на базе платформы Hyper-V и Microsoft Azure, так и на базе гипервизора VMware vSphere. Кроме того, MABS может бэкапить и физические системы с ПО Microsoft.

MABS очень хорошо подходит для небольших компаний и филиалов, где нет средств и целесообразности разворачивать дорогостоящую инфраструктуру резервного копирования, а в то же время предприятию приходиться использовать облачную инфраструктуру Microsoft Azure. Интересно, что само средство бесплатно для развертывания, но платит компания на базе модели "instance size + storage consumed" при использовании MABS. То есть оплата происходит по мере использования продукта (Pay-as-you-go).

MABS развертывается в инфраструктуре компании и позволяет делать резервные копии не только ВМ, но и приложений SQL Server, SharePoint и Exchange с поддержкой механизма VSS. Оперативное резервное копирование происходит в локальной инфраструктуре (чтобы бэкапы можно было быстро восстановить по LAN), а каждую ночь резервные копии отбрасываются еще и в облако Azure.

Недавно Microsoft выпустила Azure Backup Server v2, в котором появилось несколько важных улучшений:

  • Поддержка Windows Server 2016 - теперь последняя версия ОС и гипервизора от Microsoft поддерживается для создания резервных копий ВМ. Также MABS можно ставить на Windows Server 2016. Помимо этого поддерживаются продукты SQL Server 2016, SharePoint Server 2016 и Exchange Server 2016.
  • Поддержка VMware vSphere 6.5 - можно бэкапить виртуальные машин с серверов ESXi 6.5. Также появилась возможность восстановления ВМ в альтернативное размещение.
  • Фича Auto Protection для папки гипервизора VMware vSphere - все ВМ, которые в нее будут добавлены, будут автоматически защищены, как в локальной инфраструктуре, так и в облаке.
  • Улучшения хранилищ - теперь поддерживаются фичи Microsoft DPM 2016, включая систему резервного копирования на основе формата VHDX. Появилась поддержка механизма клонирования блоков REFS для инкрементальных бэкапов. Теперь задачи РК выполняются до 70% быстрее, сами бэкапы потребляют на 30% меньше хранилища, а также появилась технология Resilient Change Tracking (RCT) для инкрементальных резервных копий.

Для получения более подробной информации и загрузки Microsoft Azure Backup Server v2 сходите по этой ссылке. Документация по продукту доступна тут.


Таги: Microsoft, Azure, Backup

VMware vSphere VMkernel Observations (VOBs) - как создавать кастомные алармы для различных событий (alarms).


В VMware vSphere есть механизм для создания и анализа кастомных алармов - VMkernel Observations (VOBs). VOB'ы - это системные события, которые можно использовать для пользовательских алармов в целях отладки различных аспектов виртуальной инфраструктуры (сетевого взаимодействия, кластеров vSAN, производительности и т.п.).

Чтобы добавить такой аларм, нужно знать его уникальный идентификатор (ID), ассоциированный с конкретным типом события. Эти события и их ID можно посмотреть в следующем файле на хосте ESXi:

/usr/lib/vmware/hostd/extensions/hostdiag/locale/en/event.vmsg

Если же такой аларм срабатывает, то он записывается в следующий лог-файл:

/var/log/vobd.log

Для того, чтобы создать кастомный аларм на основе VOB, нужно при создании нового аларма выбрать пункт "specific event occuring on this object":

И далее добавить соответствующий идентификатор, например, такой:

esx.problem.vob.vsan.pdl.offline

Событий, для которых можно создать кастомные алармы, очень много. Вот некоторые из них:

VOB ID VOB Description
esx.audit.vsan.clustering.enabled VSAN clustering services have been enabled.
esx.clear.vob.vsan.pdl.online VSAN device has come online.
esx.clear.vsan.clustering.enabled VSAN clustering services have now been enabled.
esx.clear.vsan.vsan.network.available VSAN now has at least one active network configuration.
esx.clear.vsan.vsan.vmknic.ready A previously reported vmknic now has a valid IP.
esx.problem.vob.vsan.lsom.componentthreshold VSAN Node: Near node component count limit.
esx.problem.vob.vsan.lsom.diskerror VSAN device is under permanent error.
esx.problem.vob.vsan.lsom.diskgrouplimit Failed to create a new disk group.
esx.problem.vob.vsan.lsom.disklimit Failed to add disk to disk group.
esx.problem.vob.vsan.pdl.offline VSAN device has gone offline.
esx.problem.vsan.clustering.disabled VSAN clustering services have been disabled.
esx.problem.vsan.lsom.congestionthreshold VSAN device Memory/SSD congestion has changed.
esx.problem.vsan.net.not.ready A vmknic added to VSAN network configuration doesn't have valid IP. Network is not ready.
esx.problem.vsan.net.redundancy.lost VSAN doesn't haven any redundancy in its network configuration.
esx.problem.vsan.net.redundancy.reduced VSAN is operating on reduced network redundancy.
esx.problem.vsan.no.network.connectivity VSAN doesn't have any networking configuration for use.
esx.problem.vsan.vmknic.not.ready A vmknic added to VSAN network configuration doesn't have valid IP. It will not be in use.
ad.event.ImportCertEvent Import certificate success
ad.event.ImportCertFailedEvent Import certificate failure
ad.event.JoinDomainEvent Join domain success
ad.event.JoinDomainFailedEvent Join domain failure
ad.event.LeaveDomainEvent Leave domain success
ad.event.LeaveDomainFailedEvent Leave domain failure
com.vmware.vc.HA.CreateConfigVvolFailedEvent vSphere HA failed to create a configuration vVol for this datastore and so will not be able to protect virtual machines on the datastore until the problem is resolved. Error: {fault}
com.vmware.vc.HA.CreateConfigVvolSucceededEvent vSphere HA successfully created a configuration vVol after the previous failure
com.vmware.vc.HA.DasHostCompleteDatastoreFailureEvent Host complete datastore failure
com.vmware.vc.HA.DasHostCompleteNetworkFailureEvent Host complete network failure
com.vmware.vc.VmCloneFailedInvalidDestinationEvent Cannot complete virtual machine clone.
com.vmware.vc.VmCloneToResourcePoolFailedEvent Cannot complete virtual machine clone.
com.vmware.vc.VmDiskConsolidatedEvent Virtual machine disks consolidation succeeded.
com.vmware.vc.VmDiskConsolidationNeeded Virtual machine disks consolidation needed.
com.vmware.vc.VmDiskConsolidationNoLongerNeeded Virtual machine disks consolidation no longer needed.
com.vmware.vc.VmDiskFailedToConsolidateEvent Virtual machine disks consolidation failed.
com.vmware.vc.datastore.UpdateVmFilesFailedEvent Failed to update VM files
com.vmware.vc.datastore.UpdatedVmFilesEvent Updated VM files
com.vmware.vc.datastore.UpdatingVmFilesEvent Updating VM Files
com.vmware.vc.ft.VmAffectedByDasDisabledEvent Fault Tolerance VM restart disabled
com.vmware.vc.guestOperations.GuestOperation Guest operation
com.vmware.vc.guestOperations.GuestOperationAuthFailure Guest operation authentication failure
com.vmware.vc.host.clear.vFlashResource.inaccessible Host's virtual flash resource is accessible.
com.vmware.vc.host.clear.vFlashResource.reachthreshold Host's virtual flash resource usage dropped below the threshold.
com.vmware.vc.host.problem.vFlashResource.inaccessible Host's virtual flash resource is inaccessible.
com.vmware.vc.host.problem.vFlashResource.reachthreshold Host's virtual flash resource usage exceeds the threshold.
com.vmware.vc.host.vFlash.VFlashResourceCapacityExtendedEvent Virtual flash resource capacity is extended
com.vmware.vc.host.vFlash.VFlashResourceConfiguredEvent Virtual flash resource is configured on the host
com.vmware.vc.host.vFlash.VFlashResourceRemovedEvent Virtual flash resource is removed from the host
com.vmware.vc.host.vFlash.defaultModuleChangedEvent Default virtual flash module is changed to {vFlashModule} on the host
com.vmware.vc.host.vFlash.modulesLoadedEvent Virtual flash modules are loaded or reloaded on the host
com.vmware.vc.npt.VmAdapterEnteredPassthroughEvent Virtual NIC entered passthrough mode
com.vmware.vc.npt.VmAdapterExitedPassthroughEvent Virtual NIC exited passthrough mode
com.vmware.vc.vcp.FtDisabledVmTreatAsNonFtEvent FT Disabled VM protected as non-FT VM
com.vmware.vc.vcp.FtFailoverEvent Failover FT VM due to component failure
com.vmware.vc.vcp.FtFailoverFailedEvent FT VM failover failed
com.vmware.vc.vcp.FtSecondaryRestartEvent Restarting FT secondary due to component failure
com.vmware.vc.vcp.FtSecondaryRestartFailedEvent FT secondary VM restart failed
com.vmware.vc.vcp.NeedSecondaryFtVmTreatAsNonFtEvent Need secondary VM protected as non-FT VM
com.vmware.vc.vcp.TestEndEvent VM Component Protection test ends
com.vmware.vc.vcp.TestStartEvent VM Component Protection test starts
com.vmware.vc.vcp.VcpNoActionEvent No action on VM
com.vmware.vc.vcp.VmDatastoreFailedEvent Virtual machine lost datastore access
com.vmware.vc.vcp.VmNetworkFailedEvent Virtual machine lost VM network accessibility
com.vmware.vc.vcp.VmPowerOffHangEvent VM power off hang
com.vmware.vc.vcp.VmRestartEvent Restarting VM due to component failure
com.vmware.vc.vcp.VmRestartFailedEvent Virtual machine affected by component failure failed to restart
com.vmware.vc.vcp.VmWaitForCandidateHostEvent No candidate host to restart
com.vmware.vc.vm.VmStateFailedToRevertToSnapshot Failed to revert the virtual machine state to a snapshot
com.vmware.vc.vm.VmStateRevertedToSnapshot The virtual machine state has been reverted to a snapshot
com.vmware.vc.vmam.AppMonitoringNotSupported Application Monitoring Is Not Supported
com.vmware.vc.vmam.VmAppHealthMonitoringStateChangedEvent vSphere HA detected application heartbeat status change
com.vmware.vc.vmam.VmAppHealthStateChangedEvent vSphere HA detected application state change
com.vmware.vc.vmam.VmDasAppHeartbeatFailedEvent vSphere HA detected application heartbeat failure
esx.audit.agent.hostd.started VMware Host Agent started
esx.audit.agent.hostd.stopped VMware Host Agent stopped
esx.audit.dcui.defaults.factoryrestore Restoring factory defaults through DCUI.
esx.audit.dcui.disabled The DCUI has been disabled.
esx.audit.dcui.enabled The DCUI has been enabled.
esx.audit.dcui.host.reboot Rebooting host through DCUI.
esx.audit.dcui.host.shutdown Shutting down host through DCUI.
esx.audit.dcui.hostagents.restart Restarting host agents through DCUI.
esx.audit.dcui.login.failed Login authentication on DCUI failed
esx.audit.dcui.login.passwd.changed DCUI login password changed.
esx.audit.dcui.network.factoryrestore Factory network settings restored through DCUI.
esx.audit.dcui.network.restart Restarting network through DCUI.
esx.audit.esxcli.host.poweroff Powering off host through esxcli
esx.audit.esxcli.host.reboot Rebooting host through esxcli
esx.audit.esximage.hostacceptance.changed Host acceptance level changed
esx.audit.esximage.install.novalidation Attempting to install an image profile with validation disabled.
esx.audit.esximage.install.securityalert SECURITY ALERT: Installing image profile.
esx.audit.esximage.profile.install.successful Successfully installed image profile.
esx.audit.esximage.profile.update.successful Successfully updated host to new image profile.
esx.audit.esximage.vib.install.successful Successfully installed VIBs.
esx.audit.esximage.vib.remove.successful Successfully removed VIBs
esx.audit.host.boot Host has booted.
esx.audit.host.maxRegisteredVMsExceeded The number of virtual machines registered on the host exceeded limit.
esx.audit.host.stop.reboot Host is rebooting.
esx.audit.host.stop.shutdown Host is shutting down.
esx.audit.lockdownmode.disabled Administrator access to the host has been enabled.
esx.audit.lockdownmode.enabled Administrator access to the host has been disabled.
esx.audit.maintenancemode.canceled The host has canceled entering maintenance mode.
esx.audit.maintenancemode.entered The host has entered maintenance mode.
esx.audit.maintenancemode.entering The host has begun entering maintenance mode.
esx.audit.maintenancemode.exited The host has exited maintenance mode.
esx.audit.net.firewall.config.changed Firewall configuration has changed.
esx.audit.net.firewall.disabled Firewall has been disabled.
esx.audit.net.firewall.enabled Firewall has been enabled for port.
esx.audit.net.firewall.port.hooked Port is now protected by Firewall.
esx.audit.net.firewall.port.removed Port is no longer protected with Firewall.
esx.audit.net.lacp.disable LACP disabled
esx.audit.net.lacp.enable LACP eabled
esx.audit.net.lacp.uplink.connected uplink is connected
esx.audit.shell.disabled The ESXi command line shell has been disabled.
esx.audit.shell.enabled The ESXi command line shell has been enabled.
esx.audit.ssh.disabled SSH access has been disabled.
esx.audit.ssh.enabled SSH access has been enabled.
esx.audit.usb.config.changed USB configuration has changed.
esx.audit.uw.secpolicy.alldomains.level.changed Enforcement level changed for all security domains.
esx.audit.uw.secpolicy.domain.level.changed Enforcement level changed for security domain.
esx.audit.vmfs.lvm.device.discovered LVM device discovered.
esx.audit.vmfs.volume.mounted File system mounted.
esx.audit.vmfs.volume.umounted LVM volume un-mounted.
esx.clear.coredump.configured A vmkcore disk partition is available and/or a network coredump server has been configured.  Host core dumps will be saved.
esx.clear.coredump.configured2 At least one coredump target has been configured. Host core dumps will be saved.
esx.clear.net.connectivity.restored Restored network connectivity to portgroups
esx.clear.net.dvport.connectivity.restored Restored Network Connectivity to DVPorts
esx.clear.net.dvport.redundancy.restored Restored Network Redundancy to DVPorts
esx.clear.net.lacp.lag.transition.up lag transition up
esx.clear.net.lacp.uplink.transition.up uplink transition up
esx.clear.net.lacp.uplink.unblocked uplink is unblocked
esx.clear.net.redundancy.restored Restored uplink redundancy to portgroups
esx.clear.net.vmnic.linkstate.up Link state up
esx.clear.scsi.device.io.latency.improved Scsi Device I/O Latency has improved
esx.clear.scsi.device.state.on Device has been turned on administratively.
esx.clear.scsi.device.state.permanentloss.deviceonline Device that was permanently inaccessible is now online.
esx.clear.storage.apd.exit Exited the All Paths Down state
esx.clear.storage.connectivity.restored Restored connectivity to storage device
esx.clear.storage.redundancy.restored Restored path redundancy to storage device
esx.problem.3rdParty.error A 3rd party component on ESXi has reported an error.
esx.problem.3rdParty.information A 3rd party component on ESXi has reported an informational event.
esx.problem.3rdParty.warning A 3rd party component on ESXi has reported a warning.
esx.problem.apei.bert.memory.error.corrected A corrected memory error occurred
esx.problem.apei.bert.memory.error.fatal A fatal memory error occurred
esx.problem.apei.bert.memory.error.recoverable A recoverable memory error occurred
esx.problem.apei.bert.pcie.error.corrected A corrected PCIe error occurred
esx.problem.apei.bert.pcie.error.fatal A fatal PCIe error occurred
esx.problem.apei.bert.pcie.error.recoverable A recoverable PCIe error occurred
esx.problem.application.core.dumped An application running on ESXi host has crashed and a core file was created.
esx.problem.boot.filesystem.down Lost connectivity to the device backing the boot filesystem
esx.problem.coredump.capacity.insufficient The storage capacity of the coredump targets is insufficient to capture a complete coredump.
esx.problem.coredump.unconfigured No vmkcore disk partition is available and no network coredump server has been configured.  Host core dumps cannot be saved.
esx.problem.coredump.unconfigured2 No coredump target has been configured. Host core dumps cannot be saved.
esx.problem.cpu.amd.mce.dram.disabled DRAM ECC not enabled. Please enable it in BIOS.
esx.problem.cpu.intel.ioapic.listing.error Not all IO-APICs are listed in the DMAR. Not enabling interrupt remapping on this platform.
esx.problem.cpu.mce.invalid MCE monitoring will be disabled as an unsupported CPU was detected. Please consult the ESX HCL for information on supported hardware.
esx.problem.cpu.smp.ht.invalid Disabling HyperThreading due to invalid configuration: Number of threads: {1} Number of PCPUs: {2}.
esx.problem.cpu.smp.ht.numpcpus.max Found {1} PCPUs but only using {2} of them due to specified limit.
esx.problem.cpu.smp.ht.partner.missing Disabling HyperThreading due to invalid configuration: HT partner {1} is missing from PCPU {2}.
esx.problem.dhclient.lease.none Unable to obtain a DHCP lease.
esx.problem.dhclient.lease.offered.noexpiry No expiry time on offered DHCP lease.
esx.problem.esximage.install.error Could not install image profile.
esx.problem.esximage.install.invalidhardware Host doesn't meet image profile hardware requirements.
esx.problem.esximage.install.stage.error Could not stage image profile.
esx.problem.hardware.acpi.interrupt.routing.device.invalid Skipping interrupt routing entry with bad device number: {1}. This is a BIOS bug.
esx.problem.hardware.acpi.interrupt.routing.pin.invalid Skipping interrupt routing entry with bad device pin: {1}. This is a BIOS bug.
esx.problem.hardware.ioapic.missing IOAPIC Num {1} is missing. Please check BIOS settings to enable this IOAPIC.
esx.problem.host.coredump An unread host kernel core dump has been found.
esx.problem.hostd.core.dumped Hostd crashed and a core file was created.
esx.problem.iorm.badversion Storage I/O Control version mismatch
esx.problem.iorm.nonviworkload Unmanaged workload detected on SIOC-enabled datastore
esx.problem.migrate.vmotion.default.heap.create.failed Failed to create default migration heap
esx.problem.migrate.vmotion.server.pending.cnx.listen.socket.shutdown Error with migration listen socket
esx.problem.net.connectivity.lost Lost Network Connectivity
esx.problem.net.dvport.connectivity.lost Lost Network Connectivity to DVPorts
esx.problem.net.dvport.redundancy.degraded Network Redundancy Degraded on DVPorts
esx.problem.net.dvport.redundancy.lost Lost Network Redundancy on DVPorts
esx.problem.net.e1000.tso6.notsupported No IPv6 TSO support
esx.problem.net.fence.port.badfenceid Invalid fenceId configuration on dvPort
esx.problem.net.fence.resource.limited Maximum number of fence networks or ports
esx.problem.net.fence.switch.unavailable Switch fence property is not set
esx.problem.net.firewall.config.failed Firewall configuration operation failed. The changes were not applied.
esx.problem.net.firewall.port.hookfailed Adding port to Firewall failed.
esx.problem.net.gateway.set.failed Failed to set gateway
esx.problem.net.heap.belowthreshold Network memory pool threshold
esx.problem.net.lacp.lag.transition.down lag transition down
esx.problem.net.lacp.peer.noresponse No peer response
esx.problem.net.lacp.policy.incompatible Current teaming policy is incompatible
esx.problem.net.lacp.policy.linkstatus Current teaming policy is incompatible
esx.problem.net.lacp.uplink.blocked uplink is blocked
esx.problem.net.lacp.uplink.disconnected uplink is disconnected
esx.problem.net.lacp.uplink.fail.duplex uplink duplex mode is different
esx.problem.net.lacp.uplink.fail.speed uplink speed is different
esx.problem.net.lacp.uplink.inactive All uplinks must be active
esx.problem.net.lacp.uplink.transition.down uplink transition down
esx.problem.net.migrate.bindtovmk Invalid vmknic specified in /Migrate/Vmknic
esx.problem.net.migrate.unsupported.latency Unsupported vMotion network latency detected
esx.problem.net.portset.port.full Failed to apply for free ports
esx.problem.net.portset.port.vlan.invalidid Vlan ID of the port is invalid
esx.problem.net.proxyswitch.port.unavailable Virtual NIC connection to switch failed
esx.problem.net.redundancy.degraded Network Redundancy Degraded
esx.problem.net.redundancy.lost Lost Network Redundancy
esx.problem.net.uplink.mtu.failed Failed to set MTU on an uplink
esx.problem.net.vmknic.ip.duplicate A duplicate IP address was detected on a vmknic interface
esx.problem.net.vmnic.linkstate.down Link state down
esx.problem.net.vmnic.linkstate.flapping Link state unstable
esx.problem.net.vmnic.watchdog.reset Nic Watchdog Reset
esx.problem.ntpd.clock.correction.error NTP daemon stopped.  Time correction out of bounds.
esx.problem.pageretire.platform.retire.request Memory page retirement requested by platform firmware.
esx.problem.pageretire.selectedmpnthreshold.host.exceeded Number of host physical memory pages selected for retirement exceeds threshold.
esx.problem.scratch.partition.size.small Size of scratch partition is too small.
esx.problem.scratch.partition.unconfigured No scratch partition has been configured.
esx.problem.scsi.apd.event.descriptor.alloc.failed No memory to allocate APD Event
esx.problem.scsi.device.close.failed Scsi Device close failed.
esx.problem.scsi.device.detach.failed Device detach failed
esx.problem.scsi.device.filter.attach.failed Failed to attach filter to device.
esx.problem.scsi.device.io.bad.plugin.type Plugin trying to issue command to device does not have a valid storage plugin type.
esx.problem.scsi.device.io.inquiry.failed Failed to obtain INQUIRY data from the device
esx.problem.scsi.device.io.invalid.disk.qfull.value Scsi device queue parameters incorrectly set.
esx.problem.scsi.device.io.latency.high Scsi Device I/O Latency going high
esx.problem.scsi.device.io.qerr.change.config QErr cannot be changed on device. Please change it manually on the device if possible.
esx.problem.scsi.device.io.qerr.changed Scsi Device QErr setting changed
esx.problem.scsi.device.is.local.failed Plugin's isLocal entry point failed
esx.problem.scsi.device.is.pseudo.failed Plugin's isPseudo entry point failed
esx.problem.scsi.device.is.ssd.failed Plugin's isSSD entry point failed
esx.problem.scsi.device.limitreached Maximum number of storage devices
esx.problem.scsi.device.state.off Device has been turned off administratively.
esx.problem.scsi.device.state.permanentloss Device has been removed or is permanently inaccessible.
esx.problem.scsi.device.state.permanentloss.noopens Permanently inaccessible device has no more opens.
esx.problem.scsi.device.state.permanentloss.pluggedback Device has been plugged back in after being marked permanently inaccessible.
esx.problem.scsi.device.state.permanentloss.withreservationheld Device has been removed or is permanently inaccessible.
esx.problem.scsi.device.thinprov.atquota Thin Provisioned Device Nearing Capacity
esx.problem.scsi.scsipath.badpath.unreachpe vVol PE path going out of vVol-incapable adapter
esx.problem.scsi.scsipath.badpath.unsafepe Cannot safely determine vVol PE
esx.problem.scsi.scsipath.limitreached Maximum number of storage paths
esx.problem.scsi.unsupported.plugin.type Storage plugin of unsupported type tried to register.
esx.problem.storage.apd.start All paths are down
esx.problem.storage.apd.timeout All Paths Down timed out, I/Os will be fast failed
esx.problem.storage.connectivity.devicepor Frequent PowerOn Reset Unit Attention of Storage Path
esx.problem.storage.connectivity.lost Lost Storage Connectivity
esx.problem.storage.connectivity.pathpor Frequent PowerOn Reset Unit Attention of Storage Path
esx.problem.storage.connectivity.pathstatechanges Frequent State Changes of Storage Path
esx.problem.storage.iscsi.discovery.connect.error iSCSI discovery target login connection problem
esx.problem.storage.iscsi.discovery.login.error iSCSI Discovery target login error
esx.problem.storage.iscsi.isns.discovery.error iSCSI iSns Discovery error
esx.problem.storage.iscsi.target.connect.error iSCSI Target login connection problem
esx.problem.storage.iscsi.target.login.error iSCSI Target login error
esx.problem.storage.iscsi.target.permanently.lost iSCSI target permanently removed
esx.problem.storage.redundancy.degraded Degraded Storage Path Redundancy
esx.problem.storage.redundancy.lost Lost Storage Path Redundancy
esx.problem.syslog.config System logging is not configured.
esx.problem.syslog.nonpersistent System logs are stored on non-persistent storage.
esx.problem.vfat.filesystem.full.other A VFAT filesystem is full.
esx.problem.vfat.filesystem.full.scratch A VFAT filesystem, being used as the host's scratch partition, is full.
esx.problem.visorfs.failure An operation on the root filesystem has failed.
esx.problem.visorfs.inodetable.full The root filesystem's file table is full.
esx.problem.visorfs.ramdisk.full A ramdisk is full.
esx.problem.visorfs.ramdisk.inodetable.full A ramdisk's file table is full.
esx.problem.vm.kill.unexpected.fault.failure A VM could not fault in the a page. The VM is terminated as further progress is impossible.
esx.problem.vm.kill.unexpected.forcefulPageRetire A VM did not respond to swap actions and is forcefully powered off to prevent system instability.
esx.problem.vm.kill.unexpected.noSwapResponse A VM did not respond to swap actions and is forcefully powered off to prevent system instability.
esx.problem.vm.kill.unexpected.vmtrack A VM is allocating too many pages while system is critically low in free memory. It is forcefully terminated to prevent system instability.
esx.problem.vmfs.ats.support.lost Device Backing VMFS has lost ATS Support
esx.problem.vmfs.error.volume.is.locked VMFS Locked By Remote Host
esx.problem.vmfs.extent.offline Device backing an extent of a file system is offline.
esx.problem.vmfs.extent.online Device backing an extent of a file system came online
esx.problem.vmfs.heartbeat.recovered VMFS Volume Connectivity Restored
esx.problem.vmfs.heartbeat.timedout VMFS Volume Connectivity Degraded
esx.problem.vmfs.heartbeat.unrecoverable VMFS Volume Connectivity Lost
esx.problem.vmfs.journal.createfailed No Space To Create VMFS Journal
esx.problem.vmfs.lock.corruptondisk VMFS Lock Corruption Detected
esx.problem.vmfs.lock.corruptondisk.v2 VMFS Lock Corruption Detected
esx.problem.vmfs.nfs.mount.connect.failed Unable to connect to NFS server
esx.problem.vmfs.nfs.mount.limit.exceeded NFS has reached the maximum number of supported volumes
esx.problem.vmfs.nfs.server.disconnect Lost connection to NFS server
esx.problem.vmfs.nfs.server.restored Restored connection to NFS server
esx.problem.vmfs.resource.corruptondisk VMFS Resource Corruption Detected
esx.problem.vmsyslogd.remote.failure Remote logging host has become unreachable.
esx.problem.vmsyslogd.storage.failure Logging to storage has failed.
esx.problem.vmsyslogd.storage.logdir.invalid The configured log directory cannot be used.  The default directory will be used instead.
esx.problem.vmsyslogd.unexpected Log daemon has failed for an unexpected reason.
esx.problem.vpxa.core.dumped Vpxa crashed and a core file was created.
hbr.primary.AppQuiescedDeltaCompletedEvent Application consistent delta completed.
hbr.primary.ConnectionRestoredToHbrServerEvent Connection to VR Server restored.
hbr.primary.DeltaAbortedEvent Delta aborted.
hbr.primary.DeltaCompletedEvent Delta completed.
hbr.primary.DeltaStartedEvent Delta started.
hbr.primary.FSQuiescedDeltaCompletedEvent File system consistent delta completed.
hbr.primary.FSQuiescedSnapshot Application quiescing failed during replication.
hbr.primary.FailedToStartDeltaEvent Failed to start delta.
hbr.primary.FailedToStartSyncEvent Failed to start full sync.
hbr.primary.HostLicenseFailedEvent vSphere Replication is not licensed replication is disabled.
hbr.primary.InvalidDiskReplicationConfigurationEvent Disk replication configuration is invalid.
hbr.primary.InvalidVmReplicationConfigurationEvent Virtual machine replication configuration is invalid.
hbr.primary.NoConnectionToHbrServerEvent No connection to VR Server.
hbr.primary.NoProgressWithHbrServerEvent VR Server error: {reason.@enum.hbr.primary.ReasonForNoServerProgress}
hbr.primary.QuiesceNotSupported Quiescing is not supported for this virtual machine.
hbr.primary.SyncCompletedEvent Full sync completed.
hbr.primary.SyncStartedEvent Full sync started.
hbr.primary.SystemPausedReplication System has paused replication.
hbr.primary.UnquiescedDeltaCompletedEvent Delta completed.
hbr.primary.UnquiescedSnapshot Unable to quiesce the guest.
hbr.primary.VmLicenseFailedEvent vSphere Replication is not licensed replication is disabled.
hbr.primary.VmReplicationConfigurationChangedEvent Replication configuration changed.
vim.event.LicenseDowngradedEvent License downgrade
vim.event.SystemSwapInaccessible System swap inaccessible
vim.event.UnsupportedHardwareVersionEvent This virtual machine uses hardware version {version} which is no longer supported. Upgrade is recommended.
vprob.net.connectivity.lost Lost Network Connectivity
vprob.net.e1000.tso6.notsupported No IPv6 TSO support
vprob.net.migrate.bindtovmk Invalid vmknic specified in /Migrate/Vmknic
vprob.net.proxyswitch.port.unavailable Virtual NIC connection to switch failed
vprob.net.redundancy.degraded Network Redundancy Degraded
vprob.net.redundancy.lost Lost Network Redundancy
vprob.scsi.device.thinprov.atquota Thin Provisioned Device Nearing Capacity
vprob.storage.connectivity.lost Lost Storage Connectivity
vprob.storage.redundancy.degraded Degraded Storage Path Redundancy
vprob.storage.redundancy.lost Lost Storage Path Redundancy
vprob.vmfs.error.volume.is.locked VMFS Locked By Remote Host
vprob.vmfs.extent.offline Device backing an extent of a file system is offline.
vprob.vmfs.extent.online Device backing an extent of a file system is online.
vprob.vmfs.heartbeat.recovered VMFS Volume Connectivity Restored
vprob.vmfs.heartbeat.timedout VMFS Volume Connectivity Degraded
vprob.vmfs.heartbeat.unrecoverable VMFS Volume Connectivity Lost
vprob.vmfs.journal.createfailed No Space To Create VMFS Journal
vprob.vmfs.lock.corruptondisk VMFS Lock Corruption Detected
vprob.vmfs.nfs.server.disconnect Lost connection to NFS server
vprob.vmfs.nfs.server.restored Restored connection to NFS server
vprob.vmfs.resource.corruptondisk VMFS Resource Corruption Detected

Ну а вот так вот будет выглядеть сработавший кастомный аларм в интерфейсе VMware vSphere Web Client:


Таги: VMware, vSphere, Troubleshooting, ESXi

VMware vSAN Sizer - утилита для подбора оборудования и расчета объема хранилищ под кластеры vSAN.


Компания VMware сделала доступной небольшую онлайн-утилиту для сайзинга серверов хранения виртуальных машин, работающих в отказоустойчивых кластерах хранилищ - VMware vSAN Sizer. Также она производит подбор необходимых конфигураций серверов (для расчетов принимается, что все узлы будут использовать конфигурацию All-Flash SSD).

VMware vSAN Sizer доступен по адресу: https://vsansizer.vmware.com/

От пользователя требуется лишь ввести число виртуальных машин и объем их виртуальных дисков (пока указано, что для расчета используется некий усредненный тип нагрузки, возможно, в будущем будут добавлены еще профили нагрузок ВМ).

На первом этапе нам показывают, сколько нужно серверов и неразмеченного хранилища (Raw Storage):

Ниже мы видим технические характеристики каждого из хостов ESXi:

Ну а в рамках дополнительной информации можно вывести параметры дисковых групп (кэш и емкость хранения). В моем случае это 2 дисковых группы:

В утилите VMware vSAN Sizer расположена ссылка на расширенную версию, которая доступна для партнеров, но когда я зашел под партнерским аккаунтом, то увидел там только пустую белую страницу с шапкой меню.


Таги: VMware, vSAN, Sizing, VMachines, Storage, Hardware

Обновленная версия VMware vSphere Client 3.16 - немалого новых функций.


Компания VMware продолжает обновлять свой веб-клиент для управления виртуальной инфраструктурой на базе технологии HTML 5 и, в принципе, к предстоящему VMworld 2017 должна уже выпустить его релизную версию. Напомним, что о прошлой версии клиента vSphere Client 3.15 мы писали вот тут.

В обновлении VMware vSphere Client 3.16 появилось немало новых возможностей и улучшений. Давайте посмотрим на них:

  • Создание новой политики хранения (VM Storage Policy). Пока эта функция имеет ограничения:
    • Создание политики vSAN Policy (без тэгов)
    • Создание политики с тэгами и основными правилами
  • Улучшения распределенного коммутатора Distributed Switch
    • Управление физическими сетевыми адаптерами на уровне хоста ESXi
    • Поддержка LACP - просмотр групп link aggregation на распределенном коммутаторе
    • Поддержка SR-IOV - включение/выключение этой технологии на сетевых адаптерах, которые ее поддерживают
  • Компонент Content Library (импорт в библиотеку пока не работает)
    • Тэги, заметки и портлет подписки и публикации
    • Изменение настроек библиотек контента
    • Удаление библиотек
    • Функция синхронизации
  • Прочие улучшения
    • Выбор стека TCP/IP при создании нового сетевого адаптера VMkernel
    • Исправления ошибок

Скачать VMware vSphere Client 3.16 можно по этой ссылке. Инструкция по его развертыванию доступна тут.


Таги: VMware, vSphere, Client, Update

Использование кластеров VMware HA/DRS с разными версиями ESXi.


Спустя 8 лет, опять поднимем тему использования кластеров VMware HA/DRS, в которых, по каким-либо причинам, оказались разные версии хост-серверов VMware ESXi. Такой режим работы кластеров допускается со стороны VMware, но при определенных условиях.

Первая и самая важная вещь - совместимость виртуального аппаратного обеспечения виртуальных машин (Virtual Hardware Version), которое увеличивает свою версию с каждым мажорным релизом ESXi. Правило тут простое - более новые версии ESXi могут запускать и исполнять виртуальные машины более старых версий, а вот старые хосты ESXi более новое для себя "виртуальное железо" не запустят.

Данный момент проясняет табличка из KB 2007240:

Обратите внимание, что, например, ВМ с версией HW 11 вы не запустите на ESXi 5.5. Поэтому выход такой - не обновлять старое виртуальное аппаратное обеспечение виртуальных машин, даже если они переехали за счет vMotion на хосты с более новой версией HW.

Второй момент - VMware Tools. Тут уже проще - старую версию тулзов можно эксплуатировать на новых хостах, как и новую на старых - обратная совместимость тоже есть. Убедиться в этом можно с помощью онлайн-утилиты VMware Product Interoperability Matrices, где в поле "Select a Solution" надо выбрать VMware Tools, а в поле "Add Platform/Solution" - платформу VMware vSphere Hypervisor (ESXi):

Но обратная совместимость тоже не бесконечная - VMware Tools версии 10.1.5, как мы видим, не получится использовать на VMware vSphere 5.1 Update 3.

Кстати, чтобы обновить VMware Tools, можно переместить ВМ с помощью vMotion на хост ESXi с более высокой версией и выбрать пункт "Install/Upgrade VMware Tools" в vSphere Web Client.

Второй способ обновления VMware Tools - это просто скачать их по ссылке с официального репозитория для вашей гостевой ОС:

https://packages.vmware.com/tools/esx/index.html

Ну и третий, заключительный, но самый важный момент при использовании смешанных кластеров (VMware их называет mixed clusters) - это возможности VMware HA, DRS, FT и прочих функций, которые предоставляет соответствующая версия ПО от VMware.

Например, в версии vSphere 6.5 появилось много нового с точки зрения технологии HA (к примеру, механизм Admission Control стал рассчитывать параметры для несбалансированных кластеров автоматически).

Поэтому самый простой и эффективный выход - это смешанные кластеры не создавать, а создать два разных кластера - для старых и для новых хост-серверов. Да, это может вам стоить в каком-то случае на один хост больше, но это того стоит.


Таги: VMware, Cluster, vSphere, ESXi, VMachines, Tools, Hardware, Compatibility

VM Deployer - для тех, у кого не получается установить виртуальный модуль OVA/OVF самостоятельно.


Интересная утилита VM Deployer обнаружилась у компании DoubleCloud. Они ее сделали потому, что у их пользователей не получалось установить виртуальный модуль (Virtual Appliance) в формате OVF с основным продуктом компании vSearch Appliance.

При этом VM Deployer подходит для любого виртуального модуля в формате OVA или OVF, который не получается развернуть через vSphere Web Client. при этом не хочется использовать консольные команды для установки, где можно ошибиться в путях, наборе параметров и другом.

VM Deployer 1.1 представляет собой Java-приложение с графическим интерфейсом, которое не требует установки и позволяет интегрировать виртуальный модуль в инфраструктуру предприятия.

Вот его основные особенности:

  • Не требующий установки продукт с графическим интерфейсом для платформ Windows, Mac, Linux (плюс любая ОС, где поддерживается Java).
  • Поможет установить как OVA, так и OVF (свойства обоих форматов поддерживаются).
  • Работает как на vCenter, так и для отдельных ESXi для версий vSphere 4.0 - 6.5.
  • Не нужно вручную вбивать в консольную команду папку, хост, датастор, сеть, а можно просто их выбрать в соответствующих полях ввода.
  • Быстрое развертывание модуля за счет оптимизации обращения к API.
  • Почти не занимает место - всего 2,5 МБ.

Загрузить VM Deployer 1.1 можно по этой ссылке (надо промотать страницу пониже).


Таги: VMware, vSphere, Virtual Appliance, OVA, OVF

Онлайн-библиотека шаблонов "вложенных гипервизоров" - Nested VMware ESXi 6.x Content Library.


Некоторые из вас знают, что известный блоггер Вильям Лам в числе прочего занимается виртуальным модулем Nested VMware ESXi, то есть готовой к импорту на ESXi виртуальной машиной с этим же гипервизором внутри. Это может пригодиться, например, для создания виртуальных тестовых лабораторий с несколькими гипервизорами на базе одного физического сервера.

Так вот недавно Вильям опубликовал в облаке Amazon S3 стороннюю библиотеку контента (Content Library), где выложены и будут обновляться виртуальные модули Nested VMware ESXi версий 6.x.

Для закачки контента библиотеки вам понадобится зайти в раздел Content Libraries в клиенте vSphere Client:

И далее нужно указать следующий URL подписки на контент:

https://download3.vmware.com/software/vmw-tools/lib.json

После того, как библиотека добавится, вы увидите следующие 2 образа (как видно из скриншота выше, не обязательно скачивать их сразу, их можно загрузить по мере необходимости):

Первый - это виртуальный модуль ESXi 6.5d с поддержкой VMware vSAN, а второй - это ESXi 6.0 Update 3. Вещь полезная и удобная, а главное, что Вильям обещает обновлять данные образы.


Таги: VMware, Nested, ESXi, Cloud

Что такое и как работает VMware vCloud Availability.


На днях компания VMware выпустила чуть обновленную версию своего продукта VMware vCloud Availability 1.0.1, предназначенного для создания резервной инфраструктуры в одном из публичных облаков сервис-провайдеров на основе VMware vCloud Director (так называемая услуга Disaster-Recovery-as-a-Service, DRaaS).

Сервис-провайдер, участвующий в программе vCloud Air Network (vCAN), предоставляет ресурсы своего облака как Disaster Recovery площадку на случай аварии в датацентре клиента.

Репликация данных виртуальных машин происходит с помощью виртуального модуля VMware vSphere Replication Appliance (VSRA), который развертывается только на стороне датацентра клиента. Технология vSphere Replication позволяет откидывать реплики виртуальных машин в удаленную инфраструктуру сервис-провайлера, при этом как только данные покидают хост VMware ESXi - они сразу же шифруются.

Таким образом, никто не получит доступ к вашим ВМ в удаленном датацентре:

Архитектура решения VMware vCloud Availability выглядит следующим образом:

Модуль vSphere Replication Appliance содержит в себе несколько компонентов, в частности vCloud Tunneling Agent (vCTA), который обеспечивает безопасное SSL-соединение с датацентром сервис-провайдера. На стороне же провайдера vCAN работают так называемые Cloud Proxy Cells, которые принимают данные и являются составляющей частью решения vCloud Director.

Также в составе vCD есть Hybrid DR API, через который происходит коммуникация с компонентом vSphere Replication Cloud Service (vRCS). vRCS предназначен для того, чтобы постоянно информировать vCloud Director о составе получаемой инфраструктуры клиента, конфигурациях виртуальных машин, а также их размещении в провайдерском датацентре. В этом случае VSRA делает все то же самое, что он и делал бы для инфраструктуры онпремизной репликации через vCenter.

Ну а на видео ниже можно узнать, как происходит развертывание решения VMware vCloud Air Disaster Recovery для инфраструктуры клиента, который настраивает соединение с инфраструктурой сервис-провайдера:

Вот тут детально рассказывается о предварительных требованиях для создания такой инфраструктуры аварийного восстановления:

Ну а здесь, собственно, мы можем посмотреть, как конфигурируется удаленный (резервный) сайт под восстановление инфраструктуры предприятия в случае аварии:

Таким вот образом настраивается репликация в VSRA:

А на последнем видео - показан тест восстановления инфраструктуры в облаке после сбоя в датацентре клиента:

Больше о продукте VMware vCloud Availability и решении vCloud Air Disaster Recovery можно узнать по этим ссылкам:


Таги: VMware, vCloud, Air, Replication, DR

Новый VMware ESXi Embedded Host Client 1.21 - новые возможности.


Не так давно мы писали о новой версии клиента для управления виртуальной инфраструктурой VMware vSphere Client 3.15 и забыли упомянуть, что тогда же вышла и обновленная версия клиента для управления отдельными хост-серверами - VMware ESXi Embedded Host Client 1.21. Напомним, что о прошлой версии Host Client 1.17 мы писали в марте этого года.

Посмотрим на новые возможности ESXi Embedded Host Client 1.21, которых не так уж и мало:

  • Возможность увеличить размер датастора путем увеличения размера существующего экстента за счет использования доступного пространства на этом LUN.
  • Был улучшен датастор браузер - теперь корректно обрабатываются операции копирования и перемещения при действиях с дисками VMDK.
  • Корректная обработка горячего изменения сетевых адаптеров ВМ с MAC-адресами, назначенными сервером vCenter. Это предотвращает перегенерацию MAC-адресов при изменении портгрупп.
  • При добавлении новых дисков их тип выставляется как "Thick", чтобы соответствовать поведению сервера vCenter в этом же рабочем процессе.
  • Обработка отсутствующих данных о сертификатах в разделе Host -> Manage -> Security -> Certificates.
  • В разделе изменения или добавления виртуального коммутатора vSwitch теперь есть данные о статусе и скорости соединения.
  • Имя ВМ теперь отображается в самом начале в заголовке консоли и на вкладках.
  • Улучшено изменение разрешения при вписывании консоли в текущее окно.
  • В Firefox в неактивных полях ввода текст теперь более читаемый.
  • Теперь демон hostd определяет имя файла создаваемых виртуальных дисков.
  • Теперь нет ограничения по числу дисков, которые могут быть у виртуальной машины.
  • Предотвращение замены регулярного выражения для неопределенного свойства OVA-модуля.
  • Добавлена поддержка добавления пермиссий для групп.
  • Исправлена ошибка для ситуации, когда диски ВМ размещались на некорректном датасторе.

Загрузить ESXi Embedded Host Client 1.21 в виде VIB-пакета можно по этой ссылке. Установить его очень просто - выполните следующую команду (VIB-файл должен лежать у вас по указанному пути):

esxcli software vib install -v /tmp/esxui.vib

Удаляется клиент вот таким образом:

esxcli software vib remove -n esx-ui

Список поддерживаемых браузеров на данный момент таков:


Таги: VMware, ESXi, Host Client, Update

NAKIVO Backup & Replication - функциональное резервное копирование виртуальных машин с ценой от $199 за процессор хост-сервера.


С удовольствием представляем вам нашего очередного спонсора - компанию NAKIVO, выпускающую полезный и мощный продукт NAKIVO Backup & Replication, который выполняет резервное копирование и репликацию виртуальных машин VMware, Hyper-V и Amazon EC2. У компании более 10 000 клиентов по всему миру, а она показывает 100% годовой рост прибыли и клиентской базы.


Таги: Nakivo, Backup, Replication

Обновления кастомных OEM-образов VMware ESXi (Cisco, Dell, HPE) и визуализация полученных различий.


Многие пользователи виртуальной инфраструктуры VMware vSphere часто используют кастомизированные образы гипервизора VMware ESXi, который распространяется OEM-производителями оборудования, например, HP. Эти образы включают в себя специфические драйвера устройств, которые, зачастую, отсутствуют в стандартном комплекте поставки ESXi (это и понятно, так как нельзя поддерживать все устройства всех производителей в одном образе).

Между тем, многие администраторы обновляют такие образы достаточно редко - иногда по полгода ждут пока OEM-вендор выпустит очередную версию образа и накатывают его. Но ведь бывают критические обновления безопасности ESXi, которые нужно установить как можно скорее. Для этого нужно знать, как выглядит процедура обновления кастомного образа vSphere.

Во-первых, нужно понимать, что основные номера билдов и даты релиза гипервизора указаны в статье KB 2143832. А патчи в виде VIB-пакетов можно скачать с портала MyVMware здесь.

Во-вторых, есть утилита PowerCLI Image Builder (о ней мы писали вот тут), которая позволяет поддерживать актуальное состояние образа ESXi с точки зрения последних обновлений, но в то же время сохранять специфический контент кастомных образов.

Ну и, в-третьих, для тех, кто умеет пользоваться утилитой, есть простая команда, которая позволяет склонировать существующий профиль образа и обновить его пакеты, накатив последние патчи ESXi:

Set-ESXImageProfile $ClonedProfile -SoftwarePackage (Get-ESXSoftwarePackage -Newest)

Также у VMware есть скрипты PowerCLI, которые демонстрируют более тонкий подход к обновлению образов ESXi. Но надо отметить, что они официально не поддерживаются со стороны техподдержки VMware.

Итак, первый скрипт - esxi-image-creator.ps1 - представляет собой обертку к Image Builder и дает некоторые дополнительные возможности, которые часто требуются для кастомных образов ESXi. Например, он позволяет монтировать depot-файлы и включать или исключать VIB-пакеты из состава образов. Также там есть такие расширенные настройки, как указание билдов по датам выпуска, а не по номерам и т.п. Итоговый образ можно собрать в формате ISO или ZIP.

Второй скрипт - esxi-image-comparator.ps1 - показывает различия между двумя профилями образов ESXi. Эти различия можно показать в консоли или графическом интерфейсе, а также экспортировать в CSV-файл для последующего анализа.

Как видно из картинки, в процессе работы скрипта можно в интерактивном режиме включать или исключать профили для сравнения.

Вот пример использования утилиты при обновлении кастомного образа Cisco для ESXi 5.5 (обновление U3b от декабря 2015) с последними патчами VMware и обновленными драйверами Cisco для устройств enic и fnic. При этом исключается VIB-пакет tools-light для оптимизации использования с Auto Deploy:

esxi-image-creator.ps1 -NewProfileName Cisco_5.5_OEM_with_express_patch_11 -WriteZip -Files Vmware-ESXi-5.5.0-3248547-Custom-Cisco-5.5.3.2-Bundle.zip,ESXi550-201703001.zip,enic-2.3.0.13-offline_bundle-5367272.zip,fnic_driver_1.6.0.28_ESX55-offline_bundle-4179470.zip

Ну а вот так выглядит результат сравнения обновленного профиля с исходным:

Еще один пример - включение в образ Dell ESXi 6.0U3, который уже был обновлен Dell, патча patch 7a (5224934) с пакетами VIB для NSX и удаление VMware Tools для использования с Auto Deploy.

esxi-image-creator.ps1 -NewProfileName Dell_6.0_OEM_5224934_with_NSX -Files VMware-VMvisor-Installer-6.0.0.update03-5224934.x86_64-Dell_Customized-A01.zip,vxlan.zip,vShield-Endpoint-Mux-6.5.0esx60-4885300.zip -Acceptance PartnerSupported

Результат:

А вот пример генерации образа для HPE Proliant, содержащего последние обновления из репозитория HP, а также последние обновления оффлайн-бандла ESXi 6.5:

Add-EsxSoftwareDepot http://vibsdepot.hpe.com/index-ecli-650.xml
esxi-image-creator.ps1 -LeaveCurrentDepotsMounted -NewProfileName ESXi_6.5.0d_with_HPE_drivers -Files ESXi650-201704001.zip -Acceptance PartnerSupported

Вот полученный результат:

Надо отметить, что не следует использовать публичный репозиторий VMware image profile repository для создания кастомных образов, так как он содержит много различных версий и модификаций, что может привести к созданию образа, который невозможно будет использовать.

Но зато вот такая команда позволит сформировать таблицу с отличиями каждого из релизов VMware ESXi:

Add-EsxSoftwareDepot https://hostupdate.vmware.com/software/VUM/PRODUCTION/main/vmw-depot-index.xml

esxi-image-comparator.ps1 | Export-Csv all_profiles.csv

Мораль поста такова - нужно пользоваться, по-возможности, кастомными образами ESXi от OEM-производителей, но не забывать накатывать обновления (особенно security patches) от обычных образов VMware ESXi, создаваемых VMware.


Таги: VMware, ESXi, Update, HP, Cisco, Dell, Hardware, PowerCLI

«ИТ-ГРАД» завершил обновление vCloud Director на облачных площадках до версии 8.10.


«ИТ-ГРАД» завершил обновление облачных площадок в Москве и Санкт-Петербурге и Казахстане, теперь облачные ЦОДы в DataSpaceSDN и AHOST.kz  работают под управлением vCloud Director 8.10.

vCloud Director– это средство управления облачной инфраструктурой VMware vSphere, предназначенное для сервис-провайдеров, предлагающих услуги по модели IaaS. Изменения, произошедшие в vCloud Director 8.10, также затронули конечных пользователей: в текущем релизе появилась ожидаемая и часто запрашиваемая функциональность, интересная для клиентов.

Основные возможности, которые теперь доступны из IaaS-облака«ИТ-ГРАД»:

  • Virtual Machine Affinity Rules – теперь через консоль vCloud Director можно создавать правила раздельного/совместного существования виртуальных машин на хостах ESXi (affinity/anti-affinity rules). Это необходимо в случае, когда требуется указать, что отдельные группы ВМ должны совместно находиться на одном хосте либо, наоборот, размещаться раздельно на разных узлах. Последнее особенно актуально, если группа ВМ представляет собой некий кластер приложений.
  • Storage Policy – появилась возможность гранулированного управления политиками хранилища в разрезе виртуальных дисков. Теперь Storage Policy задается для каждого диска виртуальной машины, а не для ВМ целиком, как это было в предыдущих версиях.
  • Expanded Hardware Version – реализована поддержка обновленной версии виртуального железа Hardware Version 11.
  • vCloud Director 8.10 теперь еще более тесно интегрирован с VMware NSX, а управление виртуальными сетями дата-центра происходит с помощью VMware NSX Manager. При этом шлюз VMware NSX Edge, разворачиваемый в организации, обладает преимуществами в отношении производительности, стабильности и высокой доступности.

«ИТ-ГРАД» на своих облачных площадках в ЦОД DataSpace и SDN использует платформу виртуализации сети VMware NSX 6.2.5.

Изменения, произошедшие в vCloud Director 8.10, в первую очередь направлены на повышение производительности приложений и рабочих нагрузок. Новая версия решения обеспечивает доступ к отдельным компонентам, которые активно используются приложениями, особенно чувствительными к производительности.

Узнать подробнее о новых функциях vCloud Director 8.10 можно из блога на VM Guru и на страницах первого блога о корпоративном IaaS.


Таги: IT-Grad, IaaS, vCloud, Director, Update, Cloud

Управление настройками VMware ESXi Embedded Host Client.


William Lam рассказал интересную штуку - настройками клиента для управления хост-серверами VMware ESXi Embedded Host Client можно управлять через Advanced Settings. Имеются в виду те параметры, которые доступны в меню Settings на хосте:

Этими конфигурациями можно управлять через расширенные настройки (Advanced Settings), которые доступны в разделе "System" клиента. Для этого используется пространство UserVars:

Несмотря на префикс этих настроек, они применяются ко всему хосту в целом, а не на уровне пользователей ESXi. Также ими можно управлять через vSphere API или любой другой vSphere SDK/CLI (устанавливать, получать дефолтное значение, а также узнавать, не перекрыты ли они).

Вот, что значат эти строчки и их дефолтные параметры:

Настройка Описание Значение по умолчанию
UserVars.HostClientCEIPOptIn Подписывать ли пользователей на программу CEIP (Customer Experience Improvement Program) для Host Client: 0 - спросить, 1 - да, 2 - нет. 0
UserVars.HostClientDefaultConsole Тип дефолтной консоли Host Client. webmks
UserVars.HostClientEnableMOTDNotification Включать ли нотификацию MOTD (сообщение дня) при логине в Host Client. 1
UserVars.HostClientEnableVisualEffects Нужны ли визуальные эффекты для Host Client. 1
UserVars.HostClientSessionTimeout Деолтный таймаут сессии Host Client в секундах. 900
UserVars.HostClientShowOnlyRecentObjects Показывать ли только последние используемые объекты Host Client или нет 1
UserVars.HostClientWelcomeMessage Приветственное сообщение, показываемое при логине в Host Client  Welcome to {{hostname}}

Таги: VMware, vSphere, Client

Утилита VMware Tools Client для взаимодействия с виртуальными машинами не через сеть.


Как знают некоторые администраторы VMware vSphere, среди интерфейсов vSphere API есть механизм взаимодействия с виртуальными машинами через VMware Tools, который называется VMware vSphere Guest API.

Утилита VMware Tools Client, написанная Pierre Laine, позволяет подключиться к виртуальной машине через этот интерфейс, загружать/скачивать с нее файлы и скрипты и исполнять их. Это может оказаться полезным, когда вы потеряли сетевой доступ к виртуальной машине (например, внутри гостевой ОС что-то отвалилось).

VMware Tools Client соединяется с сервером vCenter, получает его иерархию через vCenter Inventory Service, после чего можно работать с виртуальными машинами для следующих целей:

  • Выполнение в гостевой ОС отдельных команд (например, пинг из ВМ) или скриптов
  • Загрузка, сохранение и удаление скриптов на ВМ (а также любых других файлов)
  • Загрузка скрипта из файла

Утилита кроссплатформенная с интерфейсом на JavaFX, поэтому может быть запущена на Linux/Windows системах. Также она не требует установки. На данный момент она находится в бете версии 0.2. В составе идет база данных SQLLite, в которой хранятся логины/пароли от vCenter и виртуальных машин. Скачать VMware Tools Client можно по этой ссылке.


Таги: VMware, vSphere, API, Tools, ESXi, VMachines

Несколько подробностей о Veeam CDP в Veeam Availability Suite v10.


Как мы уже писали, на прошедшей недавно в Новом Орлеане конференции VeeamON 2017, была анонсирована следующая версия пакета для обеспечения доступности виртуального датацентра - Veeam Availability Suite v10 (напомним, что она выйдет к концу года).

CDP традиционно расшифровывается как continuous data protection, то есть непрерывная защита данных. Ранее Veeam Backup and Replication, являющийся частью пакета Veeam Availability Suite наряду с Veeam ONE, делал обычную программную репликацию за счет технологии снапшотов (называлось это near-CDP data protection).

Теперь же с помощью Veeam CDP будет возможно оперировать понятием RPO (Recovery Point Objective), то есть максимальным временем изменения данных, которые можно потерять в случае сбоя хранилища или повреждения данных. Удивительно, но без технологии снапшотов, а только за счет интерфейса VAIO (vSphere APIs for IO Filters) от VMware можно достичь RPO в размере 15 секунд и менее (в зависимости от используемого оборудования на хосте и его загрузки).

Это дефолтное значение фигурирует в демо-скринах Veeam:

Обратите внимание, что задача репликации выглядит как обычно, за исключением того, что появилась вкладка Schedule, на которой можно настроить RPO, если ваш хост ESXi поддерживает VAIO (а это было добавлено еще в ESXi 6.0 Update 1). Кроме того, появились две опции: первая - это Short-tetm retention - время, за которое будут храниться копии машины в краткосрочном периоде - например, 4 часа. Во время этих 4 часов вы сможете откатиться на любую точку в соответствии с параметром RPO.

Это очень важно, когда вы не сразу можете обнаружить повреждение данных, и поврежденные данные (например, каталога Active Directory) с какого-то момента начинают реплицироваться. Если вы опомнитесь в течение 4 часов, то сможете откатить реплику назад на любое время в рамках заданного интервала RPO, не потеряв более 15 секунд с того момента. Понятное дело, что если здесь вы поставите большие значения ретеншена, то потребуется огромное место для хранения дельта-состояний на каждые 15 секунд. Поэтому 4 часа здесь наиболее оптимальное значение.

Вторая настройка, Long-term retention, позволяет откидывать точки восстановления с определенной периодичностью и хранить их заданное время в соответствии с политикой предприятия.

Veeam Backup and Replication 10 будет использовать специальный драйвер VAIO (CDP filter driver), который будет устанавливаться на хосте VMware ESXi как пакет VIB и не потребует установки никакого специального ПО в гостевые ОС виртуальных машин. Работает он на уровне VMDK-диска отдельной ВМ, привязывается к ее VMX-процессу и позволяет получать данные из потока ввода-вывода напрямую, что существенно ускорит работу механизма репликации и не потребует создания снапшотов ВМ.

При восстановлении ВМ из реплики мы увидим вот такую картинку (кликабельно):

Зеленым цветом обозначаются доступный для восстановления интервал - вы можете вернуться в любую его точку. Темно зеленым обозначается Application-consistent реплика (то есть сделанная с помощью поддержки VSS на уровне приложения), а обычным зеленым - Crash-consistent реплика, то есть та, из которой гарантированно запускается операционная система (на самом деле и приложения в 95% случаев тоже).

У Veeam CDP будет несколько моментов в эксплуатации:

  • Можно будет использовать традиционный механизм репликации вместо CDP.
  • Реплицировать шаблоны и выключенные ВМ через CDP не получится (потому что нет потока ввода-вывода и процесса VMX).
  • CDP не нужно включать для всех виртуальных машин. Ей нужно защищать только самые бизнес-критичные приложения, так как это требует много места и создает дополнительную нагрузку на ресурсы.
  • Если вам реально не нужна 15-секундная защита, то интервал лучше увеличить. Если вы, например, поставите 60 секунд, то Veeam будет иметь больше времени на организацию процесса репликации и начнет дедуплицировать пространство хранения реплик, а также проводить другие оптимизации. Для маленьких же интервалов во главу угла будет поставлено, прежде всего, обеспечение политики RPO.
  • Технология потребует тестирования, чтобы определить физические возможности обеспечения заданных политик.
  • Использовать Veeam CDP и VMware Essentials/Essentials Plus не получится, так как VAIO не включена в эти издания (понадобится издание vSphere Standard или выше).

Что касается архитектуры CDP-решения, то можно использовать машину CDP Proxy, которая снимает данные с виртуальных машин хоста, как в виде ВМ на этом же хосте (для небольших и дешевых окружений), так и в виде отдельной от хоста ESXi машины, подключенной отдельным сетевым адаптером в выделенной сети к хосту ESXi, с которого будут уходить данные CDP по высокоскоростному каналу.

Ну а за новостями технологии Veeam CDP и всего пакета Veeam Availability Suite v10 в целом можно следить на этой странице.


Таги: Veeam, CDP, Replication, Backup, Availability, Update

Утилита Autopology на сайте VMware Labs - WYSIWYG-редактор для проектирования NSX-инфраструктуры.


Некоторые из вас знакомы с решением VMware NSX, представляющим собой комплексный продукт для виртуализации и агрегации сетей датацентра. На днях на сайте проекта VMware Labs появилось интересное средство Autopology, позволяющее в проектировать сети NSX с помощью визуального редактора:

Вот основные задачи, решаемые Autopology:

  • Интерфейс drag and drop для создания графического представления логических сетей датацентра.
  • Возможность создания копий секций сетевой топологии в один клик.
  • Возможность вернуться к нарисованной архитектуре сети впоследствии для сверки полученного результата.
  • Возможность перейти к интерфейсу NSX Manager для дальнейшей кастомизации логических сущностей сетевого взаимодействия в любой момент.
  • Возможность присоединения нескольких виртуальных машин к логическим сущностям. ВМ могут работать на базе гипервизора ESXi или KVM.

Особенно решение Autopology будет полезно для новичков, которые только приступили к настройке и конфигурации NSX (что очень непросто поначалу). Вот что даст администраторам эта новая утилита:

  • Единое представление логического дизайна сети, в отличие от нескольких представлений NSX.
  • Интеллектуальное выставление дефолтных настроек позволяет более правильно и унифицированно сконфигурировать сеть.
  • Можно быстро масштабировать сети в несколько кликов мыши.
  • Единый инвентарь для рабочих нагрузок на базе разных гипервизоров.
  • Представление вычислительных и сетевых ресурсов в едином пространстве.

Для работы с утилитой (запуска сервера) вам потребуется машина Ubuntu 16.04 со следующими предустановленными пакетами:

  • apt-get install python-pip
  • apt-get install python-libvirt
  • apt-get install libssl-dev
  • apt-get install python-dev
  • apt-get install libffi-dev

В качестве браузера можно использовать Chrome и Firefox. Скачать Autopology можно по этой ссылке. Будем надеяться, что такой удобный интерфейс появится в следующей версии VMware NSX.


Таги: VMware, Labs, NSX, vNetwork

Вышел кастомизированный образ HPE Customized ESXi May 2017.


Оказывается, еще в начале мая компания HP совместно с VMware выпустила кастомизированный образ гипервизора vSphere - HPE Customized ESXi May 2017, предназначенного для установки на серверы HP.

Этот релиз для многих администраторов является важным событием, так как прошлый кастомизированный образ HPE Custom ESXi от ноября 2016 года содержал в себе некоторые проблемы, касающиеся драйверов и работы с хранилищами (в частности, наблюдалась низкая скорость записи на локальные диски). Возможно, в этом релизе данные проблемы решены, по крайней мере новый набор драйверов должен улучшить некоторые вещи.

HPE Customized ESXi May 2017 доступен для скачивания по этой ссылке. Предыдущие образы (для более ранних версий гипервизора) можно также скачать с сайта VMware по этим ссылкам:

Номера билдов и их содержимое приведены вот в этом документе HPE (там же есть ссылки на соответствующие драйвера и офлайн бандлы ESXi). Ну а руководство по кастомизированным билдам HPE Custom ESXi находится вот тут.


Таги: HP, ESXi, Update, VMware, vSphere, Hardware, Storage, Bugs

Новое на VMware Labs: образ Ubuntu OVA for Horizon для VDI-инсталляций.


Очередная полезность обновилась на VMware Labs - на этот раз это оптимизированный под виртуальную среду и готовый к развертыванию образ виртуального десктопа Ubuntu OVA for Horizon. С помощью этого виртуального модуля VDI-администраторы могут быстро развернуть инфраструктуру виртуальных ПК на Linux-платформе, получив уже все необходимые настройки и оптимизации в рамках OVA-пакета.

Особенности средства Ubuntu OVA for Horizon:

  • Базовый образ Ubuntu версии 16.04.2 LTS.
  • Виртуальное аппаратное обеспечение VMware HW v11 (для работы требуется ESXi 6.0 U2+).
  • Дефолтные имя пользователя и пароль - viewadmin/viewadmin.
  • Виртуальная машина включает 2 скрипта: horizon-optimizer.sh, который конфигурирует машину в соответствии с лучшими практиками документации по Horizon 7, а также linux-agent-installer.sh, который помогает с установкой агента Horizon View Agent.
  • Дополнительные твики и приложения, которые могут пригодиться администраторам.
  • Из-за ограничений VMware агент пока не предустановлен в этот OVA-модуль, его надо скачать вручную и запустить linux-agent-installer.sh.
  • Виртуальный модуль OVA был протестирован с инфраструктурой Windows 2003, 2008, 2012 и совместим с Samba Domains.
  • Для работы модуля потребуется vSphere 6.0 U2 или более поздняя версия, Horizon Connection Server 7.1 или более поздний, Horizon Client 4.4 или позднее.

Это уже версия 1.1 данного модуля (о первой версии мы писали вот тут). Вот что добавилось за последние 2 месяца:

  • Релиз только на основе оболочки MATE (GNOME больше не включают)
  • Увеличенная vRAM до 128 MB вместо Automatic по умолчанию
  • Удалено аудио-устройство (большинству не нужно)
  • Сетевая карта VMXNET3 по умолчанию
  • Обновленный репозиторий для open-vm-tools на Ubuntu repo
  • Добавлены зависимости Horizon 7.1 Agent
  • Обновленные пакеты зависимостей для Ubuntu 16.04 on Horizon 7.1
  • Обновлен установщик и ссылки для Horizon 7.1
  • Обновлены пакеты медиа-кодеков для Ubuntu 16.04
  • Обновлены пакеты MATE на Xenial
  • Более надежное присоединение к домену
  • Опциональная смена пароля
  • Опциональное задание таймзоны
  • Опционально ставятся десктоп-аддоны
  • Добавлены попытки повторного выполнения wget для конфиг-файлов smb и krb5
  • horizon-linux-installer.sh переименован в linux-agent-installer.sh

Скачать Ubuntu OVA for Horizon можно по этой ссылке.


Таги: VMware, Ubuntu, Virtual Appliance, Horizon, VDI, Linux, vSphere, Update

Новое на VMware Labs - Host Profiles CLI.


Недавно на сайте проекта VMware Labs появилась интересная утилита - Host Profiles CLI. Она позволяет администраторам VMware vSphere из командной строки выполнять те операции, которые недоступны в графическом интерфейсе механизма настройки хостов ESXi Host Profiles или доступны ограниченно (без средств автоматизации). Особо стоит отметить возможность совместного использования механизмов Auto Deploy и Host Profiles CLI.

Напомним, что профили хостов (Host Profiles) - это средство конфигурации серверов ESXi таким образом, что единый "золотой" профиль применялся к всем хостам, настраивая их единообразно, что уменьшает риски ошибок конфигурации, а также улучшает управляемость/обслуживание инфраструктуры и ее безопасность.

С помощью Host Profiles CLI из командной строки можно делать следующее:

  • Кастомизация stateless-хостов Auto Deploy до их загрузки и присоединения к vCenter Server.
  • Импорт/экспорт профилей хостов из локальных файлов.
  • Привязка профиля к существующему кластеру.
  • Установка единого рутового пароля в профиле или настройка профиля таким образом, чтобы использовать уникальные пароли root для каждого из хостов.
  • Настройка системного кэша (stateless, cached или stateful install).
  • Просмотр всех профилей хостов, доступных на vCenter Server.

Напомним, что начиная с vSphere 6.5, для механизма Host Profiles можно указывать параметры кастомизации отдельных хостов (IP-адреса, пароли и прочее) в CSV-файле. Но это можно делать только для хостов, которые были уже добавлены в Inventory сервера vCenter. С помощью Host Profiles CLI можно сделать прекастомизацию хостов через файлы CSV, которые будут развернуты через Auto Deploy (то есть, самих хостов пока еще нет в vCenter).

Ну и вот так можно делать импорт и экспорт профилей хостов (не пытайтесь делать импорт профиля для окружения с другим оборудованием хост-серверов):

# hostprofilescli hostprofile --profile esxi65-nfs-gen8 export --file esxi65-nfs-gen8.vpf
# hostprofilescli hostprofile --profile esxi65-nfs-gen8 import --file esxi65-nfs-gen8.vpf

А вот так можно установить пароль root для всех хостов один или свой для каждого:

hostprofilescli hostprofile --profile esxi65-nfs-gen8 useraccount-password set --type allhosts
hostprofilescli hostprofile --profile esxi65-nfs-gen8 useraccount-password set --type perhost

Таким вот образом можно привязать профиль к кластеру:

hostprofilescli hostprofile --profile esxi65-nfs-gen8 attach --entity dbcluster

Также посредством Host Profiles CLI можно установить тип развертывания хостов через Auto Deploy - Stateless caching (когда хост в случае массового сбоя и недоступности PXE-сервисов грузится из локальной кэшированной копии) или Stateful install (когда хост грузится с диска и уже больше не зависит от Auto Deploy). Вот как это делается:

hostprofilescli hostprofile --profile esxi65-nfs-gen8 system-image host set \
--type stateful-install --firstdisk_arguments localesx,local --ignore_ssd --overwrite_vmfs

Более подробная информация об использовании Host Profiles CLI приведена в документации. Загрузить этот интерфейс можно по этой ссылке.


Таги: VMware, Host Profiles, CLI, vSphere, Labs

Вышли VMware vSphere Client 3.12 и 3.13 - что нового?


В начале мая компания VMware выпустила очередное обновление своего основного средства для управления инфраструктурой VMware vSphere - vSphere Client 3.13. Три недели назад мы писали о нововведениях версий 3.10 и 3.11, а сегодня расскажем о новых возможностях обновлений 3.12 и 3.13.

Давайте посмотрим, что нового в vSphere Client:

  • Перекрывающие настройки распределения вычислительной нагрузки (VDRS) и нагрузки на хранилища (SDRS) могут быть теперь заданы.
  • Для виртуальных машин появилась настройка кластеров непрерывной доступности Fault Tolerance.
  • Стали доступны возможности Cross vCenter Server vMotion.
  • В списке хостов можно выбрать столбец с версией ESXi (по умолчанию не выбран).
  • Версия виртуального модуля видна в меню Help -> About VMware vSphere.
  • Доступна настройка VM Compliance для механизма политик хранилищ (Storage Policies).
  • Для распределенного коммутатора появились возможности добавления хостов и управления ими.
  • Появилось действие Check Policy compliance для политик хранения машины (VM Storage Policy).
  • Возможность создания новой виртуальной машины с кастомными VMware Tools и опциями загрузки (устанавливаются на странице Customize Hardware > VM Options).
  • Улучшения для пользователей с ограниченными пермиссиями при конфигурации ВМ.

Загрузить VMware vSphere Client 3.13 можно по этой ссылке.


Таги: VMware, vSphere, Client, Update

VMware vCenter Cluster Performance Tool - утилита для определения производительности кластера в ракурсе различных метрик.


На сайте проекта VMware Labs появился интересный PowerCLI-скрипт vCenter Cluster Performance Tool, с помощью которого можно получить информацию о производительности кластера за счет агрегации данных, поступающих от хостов VMware ESXi.

Это уже вторая версия сценария, переработанная на базе механизма модулей PowerCLI 6.0 (ранее она была построена на снипетах).

Для работы сценария понадобится указать 2 следующих параметра:

  • Интервал от 20 до 300 секунд. По умолчанию это 20 секунд, что соответствует сбору статистики в близкому к реальном времени, а значение 300 даст пятиминутный интервал между сборами, чтобы не создавать лишнюю нагрузку.
  • Специальный флаг для получения списка уникальных идентификаторов счетчиков производительности, доступных на vCenter Server (нужно указать -1 в качестве аргумента для получения списка). Далее можно использовать один из полученных идентификаторов для вывода соответствующей метрики для кластера.

Возможности скрипта vCenter Cluster Performance Tool:

  • Сбор всех данных в указанном интервале, которые доступны на каждом хосте заданного кластера.
  • Простой способ запуска сценария.
  • Данные сохраняются в файл CSV, которые можно подставить в любое средство визуализации.
  • Также генерируется график в формате картинки PNG (как показано выше).

Для работы скрипта потребуется VMware vCenter Server 5.0 или более поздний, а также Microsoft Chart Controls для Microsoft .NET Framework 3.5. Скачать vCenter Cluster Performance Tool можно по этой ссылке.


Таги: VMware, PowerCLI, Labs, vCenter, Performance

Что такое безопасная загрузка (Secure Boot) в VMware ESXi 6.5, и как она работает.


Некоторые из вас помнят, что в VMware vSphere 6.5 одной из новых возможностей гипервизора ESXi 6.5 стала функция его безопасной загрузки (Secure Boot). Об этом мы уже упоминали в посте с видеороликами о новых возможностях vSphere 6.5:

Суть механизма безопасной загрузки в vSphere 6.5 заключается в том, что загрузка подписанного кода гипервизора ESXi контролируется со стороны UEFI firmware, а также не разрешается исполнение неподписанных пакетов.

UEFI (Unified Extensible Firmware Interface) - это замена традиционному BIOS в серверах и настольных ПК. Механизм Secure Boot - это один из "протоколов" UEFI, который предоставляет возможности контроля загрузки подписанного кода за счет хранения цифровых сертификатов, которые хранятся в микрокоде (firmware) компьютера (signature database). Это все позволяет убедиться в том, что некий root kit не будет присутствовать в составе загружаемых компонентов и не предоставит доступ злоумышленнику на самом низком уровне.

Большинство UEFI содержит набор сертификатов по умолчанию типа x509 Microsoft UEFI Public CA, а также позволяет устанавливать собственные сертификаты дополнительно. Надо отметить, что эти сертификаты поставляются производителем серверов и обновляются вместе с его микрокодом.

Для обеспечения безопасной загрузки используются следующие компоненты:

  • Загрузчик ESXi (boot loader) - он убеждается в том, что цифровая сигнатура кода не была изменена. Загрузчик подписан сертификатом Microsoft UEFI Public CA. Он также содержит VMware public key, с помощью которого проверяются компоненты VM Kernel, Secure Boot Verifier, а также пакеты VIB.
  • Ядро VM Kernel - это также подписанная часть кода. Первое, что делает VM Kernel, это запускает Secure Boot Verifier.
  • Secure Boot Verifier - он также хранит VMware public key и проверяет аутентичность всех VIB-пакетов, которые загружаются во время загрузки ESXi.
  • VIB-пакеты (vSphere Installation Bundles) - эти пакеты, помимо реализуемых ими сервисов, содержат файл XML descriptor и файл цифровой подписи (digital signature file). Во время загрузки ESXi в памяти создается "карта" содержимого каждого из VIB-пакетов, соответственно не требуется проверять каждый из его файлов, а достаточно проверить подпись пакета целиком (это быстрее работает).

Вот как выглядит процесс загрузки хоста ESXi с точки зрения Secure Boot:

  • Включение питания.
  • UEFI Firmware валидирует загрузчик ESXi Boot Loader на предмет соответствия сертификату Microsoft внутри микрокода UEFI.
  • ESXi Boot Loader валидирует компонент VM Kernel на предмет соответствия сертификату в Boot Loader.
  • VM Kernel запускает компонент Secure Boot Verifier.
  • Secure Boot Verifier валидирует каждый VIB-пакет на соответствие сертификату VMware, который находится в хранилище Secure Boot Verifier.
  • Запускаются необходимые сервисы управления (DCUI, hostd и т.п.).

При апгрейде VMware ESXi прошлых версий с помощью ESXCLI происходит обновление сигнатур VIB-пакетов, но Boot Loader остается прежним, поэтому когда вы включите Secure Boot - возникнет ошибка. Как следствие - нужно будет переустановить ESXi.

Если вы обновляете ESXi из ISO-образа, то для некоторых старых VIB-пакетов сигнатуры могут не обновиться (например, кастомные драйвера, которые вы устанавливали отдельно), что приведет к неудаче при безопасной загрузке. То есть для нормального обновления из ISO нужно, чтобы все VIB-пакеты в этом образе обновили все предыдущие VIB. Надо отметить, что VIB-пакеты уровня Community supported не поддерживаются для безопасной загрузки (так как они не подписаны).

В составе VMware vSphere 6.5 есть специальный скрипт, который проверяет возможность безопасного апгрейда прошлой версии платформы.

Сначала надо проверить, что серверы поддерживают UEFI secure boot. Далее надо убедиться, что все ваши VIB-пакеты имеют хотя бы уровень Partner Supported, и у вас нет Community Supported пакетов.

Если вы обновили хост на ESXi 6.5, то можно выполнить следующий скрипт для проверки возможности включения Secure Boot:

/usr/lib/vmware/secureboot/bin/secureBoot.py -c

Результатом будет строчка "Secure Boot can be enabled" или "Secure boot CANNOT be enabled".

Если вы включите Secure Boot в микрокоде сервера, но у вас есть неподписанные пакеты, то при загрузке сервера вы увидите розовый экран и сообщение о том, что нельзя проверить подписи VIB-пакетов:

Чтобы выйти из этой ситуации, надо выключить безопасную загрузку, удалить неподписанные VIB-пакеты и снова включить ее.

Еще одна фишка включенной функции Secure Boot - это то, что вы не сможете установить неподписанные VIB-пакеты с опцией force подобным образом:

"esxcli install software –d /drive/badvib.zip –force –<b>no</b>-sig-check"

Если говорить о модуле TPM, то он тут не участвует, и мало того - TPM 2.0 вообще не поддерживается со стороны VMware vSphere 6.5.

Ну и последнее. Если вы хотите использовать Secure Boot вместе с механизмом vSphere Auto Deploy, то вы должны добавить сертификат VMware в список UEFI firmware whitelist (DB). Это требуется потому, что только ESXi Boot Loader подписан сертификатом Microsoft, а часть кода PXE-загрузчика, которая грузится до Boot Loader, подписана сертификатом VMware. Более подробно об этом написано в KB 2148532.


Таги: VMware, vSphere, Security, ESXi, Blogs

<<   <    1 | 2 | 3 | 4 | 5 | 6 | 7 | 8 | 9 | 10 | 11 | 12 | 13 | 14 | 15 | 16 | 17 | 18 | 19 | 20 | 21 | 22 | 23 | 24 | 25 | 26 | 27 | 28 | 29 | 30 | 31 | 32 | 33 | 34 | 35 | 36 | 37 | 38 | 39 | 40 | 41 | 42 | 43 | 44 | 45 | 46 | 47 | 48 | 49 | 50 | 51 | 52 | 53 | 54 | 55 | 56 | 57    >   >>
Интересное:





Зал Славы Рекламодателя
Ближайшие события в области виртуализации:

Быстрый переход:
VMware Kubernetes VMachines Enterprise Offtopic Broadcom Veeam Microsoft Cloud StarWind NAKIVO vStack Gartner Vinchin Nakivo IT-Grad Teradici VeeamON VMworld PowerCLI Citrix VSAN GDPR 5nine Hardware Nutanix vSphere RVTools Security Code Cisco vGate SDRS Parallels IaaS HP VMFS VM Guru Oracle Red Hat Azure KVM VeeamOn 1cloud DevOps Docker Storage NVIDIA Partnership Dell Virtual SAN Virtualization VMTurbo vRealize VirtualBox Symantec Softline EMC Login VSI Xen Amazon NetApp VDI Linux Hyper-V IBM Google VSI Security Windows vCenter Webinar View VKernel Events Windows 7 Caravan Apple TPS Hyper9 Nicira Blogs IDC Sun VMC Xtravirt Novell IntelVT Сравнение VirtualIron XenServer CitrixXen ESXi ESX ThinApp Books P2V VCF vSAN VKS Private AI VMmark Operations Certification Memory NVMe AI VMConAWS vDefend VCDX Explore Tanzu Workstation Update Russian Ports HCX Live Recovery CloudHealth NSX Labs Backup Chargeback Aria VCP Intel Community Ransomware Stretched Network VMUG VCPP Data Protection ONE V2V DSM DPU Omnissa EUC Avi Skyline Host Client GenAI Horizon SASE Workspace ONE Networking Tools Performance Lifecycle AWS API USB SDDC Fusion Whitepaper SD-WAN Mobile SRM ARM HCI Converter Photon OS VEBA App Volumes Workspace Imager SplinterDB DRS SAN vMotion Open Source iSCSI Partners HA Monterey RDMA vForum Learning vRNI UAG Support Log Insight AMD vCSA NSX-T Graphics HCIBench SureBackup Docs Carbon Black vCloud Обучение Web Client vExpert OpenStack UEM CPU PKS vROPs Stencils Bug VTL Forum Video Update Manager VVols DR Cache Storage DRS Visio Manager Virtual Appliance PowerShell LSFS Client Availability Datacenter Agent esxtop Book Photon Cloud Computing SSD Comparison Blast Encryption Nested XenDesktop VSA vNetwork SSO VMDK Appliance VUM HoL Automation Replication Desktop Fault Tolerance Vanguard SaaS Connector Event Free SQL Sponsorship Finance FT Containers XenApp Snapshots vGPU Auto Deploy SMB RDM Mirage XenClient MP iOS SC VMM VDP PCoIP RHEV vMA Award Licensing Logs Server Demo vCHS Calculator Бесплатно Beta Exchange MAP DaaS Hybrid Monitoring VPLEX UCS GPU SDK Poster VSPP Receiver VDI-in-a-Box Deduplication Reporter vShield ACE Go nworks iPad XCP Data Recovery Documentation Sizing Pricing VMotion Snapshot FlexPod VMsafe Enteprise Monitor vStorage Essentials Live Migration SCVMM TCO Studio AMD-V Capacity KB VirtualCenter NFS ThinPrint Upgrade VCAP Orchestrator ML Director SIOC Troubleshooting Bugs ESA Android Python Hub Guardrails CLI Driver Foundation HPC Optimization SVMotion Diagram Plugin Helpdesk VIC VDS Migration Air DPM Flex Mac SSH VAAI Heartbeat MSCS Composer
Полезные постеры:

Постер VMware vSphere PowerCLI 10

Постер VMware Cloud Foundation 4 Architecture

Постер VMware vCloud Networking

Постер VMware Cloud on AWS Logical Design Poster for Workload Mobility

Постер Azure VMware Solution Logical Design

Постер Google Cloud VMware Engine Logical Design

Постер Multi-Cloud Application Mobility

Постер VMware NSX (референсный):

Постер VMware vCloud SDK:

Постер VMware vCloud Suite:

Управление памятью в VMware vSphere 5:

Как работает кластер VMware High Availability:

Постер VMware vSphere 5.5 ESXTOP (обзорный):

 

Популярные статьи:
Как установить VMware ESXi. Инструкция по установке сервера ESXi 4 из состава vSphere.

Типы виртуальных дисков vmdk виртуальных машин на VMware vSphere / ESX 4.

Включение поддержки технологии Intel VT на ноутбуках Sony VAIO, Toshiba, Lenovo и других.

Как работают виртуальные сети VLAN на хостах VMware ESX / ESXi.

Как настроить запуск виртуальных машин VMware Workstation и Server при старте Windows

Сравнение Oracle VirtualBox и VMware Workstation.

Работа с дисками виртуальных машин VMware.

Диски RDM (Raw Device Mapping) для виртуальных машин VMware vSphere и серверов ESX.

Где скачать последнюю версию VMware Tools для виртуальных машин на VMware ESXi.

Что такое и как работает виртуальная машина Windows XP Mode в Windows 7.

Как перенести виртуальную машину VirtualBox в VMware Workstation и обратно

Подключение локальных SATA-дисков сервера VMware ESXi в качестве хранилищ RDM для виртуальных машин.

Как поднять программный iSCSI Target на Windows 2003 Server для ESX

Инфраструктура виртуальных десктопов VMware View 3 (VDI)

Как использовать возможности VMware vSphere Management Assistant (vMA).

Интервью:

Alessandro Perilli
virtualization.info
Основатель

Ратмир Тимашев
Veeam Software
Президент


Полезные ресурсы:

Последние 100 утилит VMware Labs

Новые возможности VMware vSphere 8.0 Update 1

Новые возможности VMware vSAN 8.0 Update 1

Новые документы от VMware

Новые технологии и продукты на VMware Explore 2022

Анонсы VMware весной 2021 года

Новые технологии и продукты на VMware VMworld 2021

Новые технологии и продукты на VMware VMworld 2020

Новые технологии и продукты на VMware VMworld Europe 2019

Новые технологии и продукты на VMware VMworld US 2019

Новые технологии и продукты на VMware VMworld 2019

Новые технологии и продукты на VMware VMworld 2018

Новые технологии и продукты на VMware VMworld 2017



Copyright VM Guru 2006 - 2026, Александр Самойленко. Правила перепечатки материалов.
vExpert Badge